Spark读取Hdfs

chenchenzff 2014-11-11 09:48:57
最近才开始搞spark,请问各位大神怎么让spark高效的读取Hdfs上的二进制文件,求解决,急~~~
...全文
225 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
chenchenzff 2014-11-13
  • 打赏
  • 举报
回复
谢谢,我试试
  • 打赏
  • 举报
回复
SparkContext中有sequenceFile[K, V]方法用来读取序列化二进制文件,K和V是文件中的key和values类型。它们必须是Hadoop的Writable的子类。

1,274

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧