Hive的数据导入

kk_6547896321 2019-03-07 05:51:19
hive中,将临时表中的数据导入到存储格式为orc的目标表中,发现目标表中的数据块大小变成了256m?请问这是为什么? 并没有改变hdfs默认的128m块的大小 Insert overwrite table test_orc select * from test_ori; 但将数据导入后,在hdfs上的数据内容是压缩了,但数据块大小却变成了256m。临时表仍然保留, 分析了一下,会不会是因为将临时表中的数据导入目标表,将该数据与目标表建立了映射关系,由于临时表跟该数据也有一层映射关系 (元数据保存在mysql中),难道因为这样改变了目标表中该文件默认块大小?想不通,求指点,,
...全文
25 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

7,388

社区成员

发帖
与我相关
我的任务
社区描述
其他数据库开发 数据仓库
社区管理员
  • 数据仓库
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧