hadoop使用distribute cache遇到问题
用eclipse执行hadoop map reduce任务时,
从当前作业中获取要缓存的文件时,
Path[] paths = DistributedCache.getLocalCacheFiles(job);
得到paths 是本地的路径,如我的是:file:\usr\hadoop\tmp\mapred\local\1406616390459\user.csv,报错,java.io.FileNotFoundException,请问这个怎么解决呢,还是说本地就是不能运行,得放到hadoop上面就执行?