Hadoop运行程序卡在map 0% reduce 0%

tkzclsp 2014-05-08 06:08:44
我搭建了3台机器的集群,运行Hadoop权威指南第二章关于气象数据的程序,运行1901-1902的数据是可以的。把数据改成从1901到1950年的所有数据,大概有500M,运行程序卡在map 0% reduce 0%.什么问题
软件版本:Hadoop1.0.3,jdk1.7.0_51,eclipse4.2.1
...全文
521 3 打赏 收藏 举报
写回复
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
五哥 2014-06-03
  • 打赏
  • 举报
回复
看看日志, 处理50G的数据都很快就完成
闵开慧 2014-05-30
  • 打赏
  • 举报
回复
这个问题比较复杂,可以qq聊 2965799541
闵开慧 2014-05-30
  • 打赏
  • 举报
回复
看一下你的mapreduce程序是运行在本地还是集群上,在eclipse中的程序如果没有设置一般都是运行在本地的,你在运行程序时看一下安装eclipse机器的资源消耗,如果是在本地可能是设置的内存不够,或者是数据格式有问题
发帖
云存储

929

社区成员

云计算 云存储相关讨论
社区管理员
  • 云存储
加入社区
帖子事件
创建了帖子
2014-05-08 06:08
社区公告
暂无公告