本文主要是介绍sparksql文件的读写-json和parquet,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
//1.读取一个json文本
val df1= ssc.read.json("E:\\sparkdata\\person.json")
//2.读取数据,在format方法中指定类型
val df2=ssc.read.format("json").load("E:\\sparkdata\\person.json")
val df3=ssc.read.format("parquet").load("E:\\sparkdata\\person_cppy2.json\\part-r-00000-8c6f0374-7b2e-46de-aa59-14a91e0e0e3e.gz.parquet")
df2.registerTempTable("t_p")
ssc.sql("select * from t_p").show()
//3.文件的输出
df2.write.json("E:\\sparkdata\\person_cppy.json")
df2.write.format("json").save("E:\\sparkdata\\person_cppy.json")
//默认输出类型是parquet格式
df2.write.save("E:\\sparkdata\\person_cppy2.json")
//输出数据模式
/*
* Append 追加模式
* Overwrite 覆盖模式
* ErrorIfExists默认模式,如果对象目录存在,报错
* Igore 如果目录存在,不管是否为空,都直接忽略sava操作*/
df3.write.format("parquet").mode(SaveMode.Overwrite).save("E:\\sparkdata\\person_cppy")
这篇关于sparksql文件的读写-json和parquet的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!