kettle7.1连接CDH5.14.1后,不能在HDFS里面写入文件。 所有权限都打开了。

大数据森森沐沐 2018-11-08 07:54:38
2018/11/08 19:44:21 - RepositoriesMeta - Reading repositories XML file: C:\Users\Administrator\.kettle\repositories.xml
2018/11/08 19:44:24 - DBCache - Loading database cache from file: [C:\Users\Administrator\.kettle\db.cache-7.1.0.0-12]
2018/11/08 19:44:24 - DBCache - We read 5 cached rows from the database cache!
2018/11/08 19:44:24 - RepositoriesMeta - No repositories file found in the local directory: D:\CDH\pdi-ce-7.1.0.0-12\data-integration\repositories.xml
2018/11/08 19:44:24 - RepositoriesMeta - Reading repositories XML file: C:\Users\Administrator\.kettle\repositories.xml
2018/11/08 19:44:25 - Spoon - 试图打开最近使用的文件.
2018/11/08 19:44:25 - Spoon - Connected to metastore : File repository, added to delegating metastore
2018/11/08 19:44:25 - RepositoriesMeta - No repositories file found in the local directory: D:\CDH\pdi-ce-7.1.0.0-12\data-integration\repositories.xml
2018/11/08 19:44:25 - RepositoriesMeta - Reading repositories XML file: C:\Users\Administrator\.kettle\repositories.xml
2018/11/08 19:44:34 - Spoon - Spoon
2018/11/08 19:44:44 - Spoon - 保存文件或资源库...
2018/11/08 19:44:44 - Spoon - 保存到资源库...
2018/11/08 19:44:44 - Spoon - 正在开始任务...
2018/11/08 19:44:44 - hadoopcopyfiles测试 - 开始执行任务
2018/11/08 19:44:44 - hadoopcopyfiles测试 - exec(0, 0, START.0)
2018/11/08 19:44:44 - START - Starting job entry
2018/11/08 19:44:44 - hadoopcopyfiles测试 - 开始项[Hadoop Copy Files]
2018/11/08 19:44:44 - hadoopcopyfiles测试 - exec(1, 0, Hadoop Copy Files.0)
2018/11/08 19:44:44 - Hadoop Copy Files - Starting job entry
2018/11/08 19:44:44 - Hadoop Copy Files - 开始...
2018/11/08 19:44:44 - Hadoop Copy Files - 正在处理行, 源文件/目录: [hdfs://cdh1:8020/tmp/demo_agg.txt] ... 目标文件/目录 : [hdfs://cdh1:8020/user/Administrator]... 通配符 : [null]
2018/11/08 19:44:44 - Hadoop Copy Files - 文件 [hdfs://cdh1:8020/tmp/demo_agg.txt] 被复制到 [hdfs://cdh1:8020/user/Administrator/demo_agg.txt]
2018/11/08 19:44:44 - Hadoop Copy Files - ERROR (version 7.1.0.0-12, build 1 from 2017-05-16 17.18.02 by buildguy) : 文件系统异常:Could not copy "hdfs://cdh1:8020/tmp/demo_agg.txt" to "hdfs://cdh1:8020/user/Administrator/demo_agg.txt".
2018/11/08 19:44:44 - Hadoop Copy Files - ERROR (version 7.1.0.0-12, build 1 from 2017-05-16 17.18.02 by buildguy) : 原因:Could not write to "hdfs://cdh1:8020/user/Administrator/demo_agg.txt".
2018/11/08 19:44:44 - Hadoop Copy Files - ERROR (version 7.1.0.0-12, build 1 from 2017-05-16 17.18.02 by buildguy) : 原因:This file type cannot be written to.
2018/11/08 19:44:44 - hadoopcopyfiles测试 - 完成作业项[Hadoop Copy Files] (结果=[false])
2018/11/08 19:44:44 - hadoopcopyfiles测试 - 任务执行完毕
2018/11/08 19:44:44 - Spoon - 任务已经结束.


应该不是权限问题吧,所有权限都打开了, / 目录都给777 权限了,HDFS 配置目录里面的 HDFS 权限检查也没有勾选了。
...全文
603 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
yangjuanli 2018-11-21
  • 打赏
  • 举报
回复
解决了就结贴吧:)
  • 打赏
  • 举报
回复
问题经解决,是kettle版本问题。
  • 打赏
  • 举报
回复
期待大家的回答。

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧