Spark正常运行在快结束时导致系统注销
求教哪位大神。我的Hadoop运行在本机(Ubuntu16.04),伪分布式。我安装了Spark后提交实例作业(SparkPI),运行一段时间突然电脑黑屏,最后又回到登录界面,重新登录进来发现之前开的Hadoop、HBase和SparkMaster都被回收了。查看日志也没有出现什么报错的情况。
之前运行MapReduce作业时也出现这个状况,当时用Sqoop1将Oracle11g中的数据导入到本地HBase中,在快要结束时自动注销了,当然数据确实导进去了。Sqoop1导数据是生成MapReduce作业。现在一头雾水,不知道怎么回事,完全蒙了。求路过的前辈大神们赐教,完全不知该如何下手了。