mapreduce计算框架的一点疑问
mapreduce计算框架中,有map任务和reducer任务。
map任务,主要是将原始数据转为 <key, value>形式
中间会有combine过程 将<key, value>转为 <key, list>
因为每个reducer都会收到相同的key值,我这里有两个问题,
1. 相同key值得数据会被切分,分发给不同的reducer吗?, 如果这样,最后的结果如何产生
2. 如果不切分,一个reduer能处理那么大得数据量吗? (相同key的数据可能是海量的)