关于MapReduce一个很弱的问题请教一下

pass9wen33 2012-11-13 06:56:40
本人刚开始接触这一块,关于处理前的分块,我看资料上说MapReduce是随机分块的,不知道能不能按照指定的规则分块呢,例如一堆数据,我要根据编号来分块,能做吗,怎么做?请大神指教啦~
...全文
259 4 打赏 收藏 转发到动态 举报
写回复
用AI写文章
4 条回复
切换为时间正序
请发表友善的回复…
发表回复
cranley 2013-01-08
  • 打赏
  • 举报
回复
MAPREDUCE框架中类InputFormat的方法 List<InputSplit> getSplits(JobContext context ) throws IOException, InterruptedException; 这个就是用来做自定义数据分块的。 具体应用可以参考FileInputFormat.getSplits中的代码,它实现按文件块大小作为依据,来切割整个文件得到文件处理块列表List<InputSplit>
半夜郎中 2012-12-03
  • 打赏
  • 举报
回复
面包里的代码 2012-11-26
  • 打赏
  • 举报
回复
共同学习之。。
lldustc 2012-11-15
  • 打赏
  • 举报
回复
文件存入HDFS时已经进行了分块,这个应该是按照系统设置的分块大小进行分块的。 但你说的分块我不知道你是想说把每一个文件看成一块还是按文件里的数据的某一个字段,字段满足要求看成一块,你写清楚你的需求,最好举一个例子

20,811

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧