val sqlContext=new SQLContext(sc)
val df=sqlContext.createDataFrame(rowRDD,schema)
df.write.mode(SaveMode.Overwrite).save(s"${destDir}/${dateStr}.parquet")
...全文
24602打赏收藏
Spark 中的文本转换为 Parquet 如何控制Parquet文件的数量
两个parquet文件,都很小,如何实现输出的文件只有一个 sparkl转换部分代码: val sqlContext=new SQLContext(sc) val df=sqlContext.createDataFrame(rowRDD,schema) df.write.mode(SaveMode.Overwrite).save(s"${destDir}/${dateStr}.parquet")