Spark 中的文本转换为 Parquet 如何控制Parquet文件的数量

福清仔 2017-09-14 03:45:56

两个parquet文件,都很小,如何实现输出的文件只有一个
sparkl转换部分代码:

val sqlContext=new SQLContext(sc)
val df=sqlContext.createDataFrame(rowRDD,schema)
df.write.mode(SaveMode.Overwrite).save(s"${destDir}/${dateStr}.parquet")
...全文
2460 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
福清仔 2018-02-06
  • 打赏
  • 举报
回复
都不行
张某码 2017-09-20
  • 打赏
  • 举报
回复
你重新划分下partiton 把partition 设置为1

1,261

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧