[quote=引用 23 楼 laser1983 的回复:] [quote=引用 22 楼 sky_walker85 的回复:] 刚查到资料,实际上是可以在map或reduce中调用子job的,但这样会耗费过多内存,比如在reduce中调用子job,那么reducer必须要等到子job完成后才能释放内存,假设有10个reducer,由于它们一直不释放内存,而子job由需要内存,就出现了内存溢出。不知道这样分析是否正确,但感觉大概就是这样的
[quote=引用 2 楼 sky_walker85 的回复:] 应该是支持的,楼主所谓的把内存开打,具体指的什么意思,是增加虚拟机的内存使用吗
OOZIE调用shell脚本,在.sh脚本里我又调用hadoop jar。。。执行mr计算,,开始提示内存不够,我把内存开大后通过oozie分配运行这个sh文件的节点直接挂死了,我在任意节点上执行这个sh只需要10分钟。是不是oozie不支持这种shell脚本内部调用mr啊,各位有没有经验。
[quote=引用 5 楼 sky_walker85 的回复:] 总共就1G的物理内存吗,我之前在1G内存运行也出错,后来增加到2G物理内存就可以了,如果是虚拟机的话就增加内存试试
总共就1G的物理内存吗,我之前在1G内存运行也出错,后来增加到2G物理内存就可以了,如果是虚拟机的话就增加内存试试
你可以把错误贴出来,一般调用外部的程序是非常消耗内存的,比如我使用pig调用python非常消耗内存,会提示2.5GB ... 3GB这样的错误,你可以把虚拟内存设置大点(更具机器来定)。
应该是支持的,楼主所谓的把内存开打,具体指的什么意思,是增加虚拟机的内存使用吗
[quote=引用 22 楼 sky_walker85 的回复:] 刚查到资料,实际上是可以在map或reduce中调用子job的,但这样会耗费过多内存,比如在reduce中调用子job,那么reducer必须要等到子job完成后才能释放内存,假设有10个reducer,由于它们一直不释放内存,而子job由需要内存,就出现了内存溢出。不知道这样分析是否正确,但感觉大概就是这样的
刚查到资料,实际上是可以在map或reduce中调用子job的,但这样会耗费过多内存,比如在reduce中调用子job,那么reducer必须要等到子job完成后才能释放内存,假设有10个reducer,由于它们一直不释放内存,而子job由需要内存,就出现了内存溢出。不知道这样分析是否正确,但感觉大概就是这样的
[quote=引用 17 楼 sky_walker85 的回复:] [quote=引用 16 楼 laser1983 的回复:] [quote=引用 15 楼 sky_walker85 的回复:] 控制台有输出吗,比如进度?
20,808
社区成员
4,690
社区内容
加载中
试试用AI创作助手写篇文章吧