spark萌新真心求问,要炸裂了!java.lang.NullPointerException

hit_qh 2016-12-15 10:05:24
就是,我在调用了graphX的pregel接口,做了一个sparql查询系统,然后当数据比较小的时候没有什么问题,但是当数据比较大的时候,就会出现一下问题:
Caused by: java.lang.NullPointerException
at SparqlSpark.Main$.SparqlSpark$Main$$vertexProgram$1(main.scala:234)
at SparqlSpark.Main$$anonfun$14.apply(main.scala:241)
at SparqlSpark.Main$$anonfun$14.apply(main.scala:241)
at org.apache.spark.graphx.Pregel$$anonfun$1.apply(Pregel.scala:122)
at org.apache.spark.graphx.Pregel$$anonfun$1.apply(Pregel.scala:122)
at org.apache.spark.graphx.impl.VertexPartitionBaseOps.map(VertexPartitionBaseOps.scala:62)
at org.apache.spark.graphx.impl.GraphImpl$$anonfun$5.apply(GraphImpl.scala:132)
at org.apache.spark.graphx.impl.GraphImpl$$anonfun$5.apply(GraphImpl.scala:132)
at scala.collection.Iterator$$anon$11.next(Iterator.scala:328)
at org.apache.spark.storage.MemoryStore.unrollSafely(MemoryStore.scala:285)
at org.apache.spark.CacheManager.putInBlockManager(CacheManager.scala:171)
at org.apache.spark.CacheManager.getOrCompute(CacheManager.scala:78)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:268)
at org.apache.spark.rdd.ZippedPartitionsRDD2.compute(ZippedPartitionsRDD.scala:88)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:306)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:270)
at org.apache.spark.rdd.MapPartitionsRDD.compute(MapPartitionsRDD.scala:38)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:306)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:270)
at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:73)
at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:41)
at org.apache.spark.scheduler.Task.run(Task.scala:89)
at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:214)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
我调试的时候发现当数据变大的时候,图中顶点的属性有的为空。
问一下各位有没有遇到类似的情况,神马情况下会出现这种错误。分布式情况下遇到java.lang.NullPointerException该怎么解决。
谢谢各位了。
...全文
706 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复
你才不萌呢
qq_37130063 2016-12-29
  • 打赏
  • 举报
回复
只能飘过了

1,258

社区成员

发帖
与我相关
我的任务
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
  • Spark
  • shiter
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧