使用hadoop archive 压缩文件报错

DaveFork 2017-05-07 08:13:46
使用hadoop archive 压缩文件提示Cannot initialize Cluster. Please check your configuration for mapreduce.framework.name and the correspond server addresses.
我尝试过使用hive来压缩分区表,生成的har文件没有index文件,所以依旧不能查询
集群平时运行都没问题,包括执行各类mapreduce任务
...全文
430 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
DaveFork 2017-05-19
  • 打赏
  • 举报
回复
引用 2 楼 tianfang 的回复:
估计你缺jar文件了

<dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-common</artifactId>
        <version>2.2.0</version>
</dependency>
<dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-jobclient</artifactId>
        <version>2.2.0</version>
</dependency>
这两个jar包是有的, 日志内容都不报错,唯一就是我上面写的提示信息, 执行的命令是 : hadoop archive -archiveName test.har -p src dest
tianfang 2017-05-08
  • 打赏
  • 举报
回复
估计你缺jar文件了

<dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-common</artifactId>
        <version>2.2.0</version>
</dependency>
<dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-jobclient</artifactId>
        <version>2.2.0</version>
</dependency>
tianfang 2017-05-08
  • 打赏
  • 举报
回复
你的命令,错误信息贴出来

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧