社区
Spark
帖子详情
sqoop1 导入数据 保存成parquet spark dataframe无法使用
zhaochaoqi
2016-07-05 02:41:25
用sqoop1-1.4.5 -as-aprquet 将数据从MySQL 导入到hdfs 保存成parquet 但是spark 无法使用
保存 sqoop保存的文件不是parquet file
...全文
764
3
打赏
收藏
sqoop1 导入数据 保存成parquet spark dataframe无法使用
用sqoop1-1.4.5 -as-aprquet 将数据从MySQL 导入到hdfs 保存成parquet 但是spark 无法使用 保存 sqoop保存的文件不是parquet file
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
3 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
a95473004
2016-12-28
打赏
举报
回复
Spark的jdbcreader比sqoop好用多了。。。。 放弃sqoop吧。。
zhaochaoqi
2016-11-16
打赏
举报
回复
sqoop import --connect "jdbc:oracle:thin:@host:nettele" --username admin -P admin --split-by CUSTOMER_ID --query 'select * from db.table where createdate is not null and $CONDITIONS ' --target-dir /user/tkonline/test-parquet/ --num-mappers 6 --as-parquetfile
LinkSe7en
2016-07-08
打赏
举报
回复
把sqoop命令贴上来看看
第九章:
Sqoop
数据
采集工具
1.
Sqoop
系统概述 2.
Sqoop
的安装与配置 3.
Sqoop
数据
导入
4.
Sqoop
数据
导出 5.
Sqoop
高级
导入
导出 6.
Sqoop
生产环境优化
spark
实现
sqoop
从oracle导
数据
到hive
\n ")然而hive1.1.0中
数据
换行默认识别的也是\n,最坑的是还不能对它进行修改(目前我没有查出修改的方法,大家要是有办法欢迎在评论区讨论)那我只能对
数据
进行处理了,以前
使用
sqoop
的时候也有这个问题,所幸...
Spark
导入
各种类型外部
数据
Spark
cooker 第三章:外部
数据
源
Hadoop分布式文件系统HDFS作为
Spark
最常用的存储平台,
使用
普通硬件(廉价机)为非结构化
数据
或半结构化
数据
提供了低
成
本的存储。
Spark
并不局限于HDFS,可以用于任何Hadoop支持的存储。 Hadoop支持的存储是指可以...
spark
写入oracle 优化,[坑总结]
Spark
parquet
sqoop
导数oracle
当用
Spark
的
DataFrame
往HDFS里面写入csv的时候,会指定分隔符...之前曾尝试用
DataFrame
导出
Parquet
文件,并用
sqoop
命令来导出到oracle
数据
库,无奈总是报错
parquet
文件夹下缺乏.metadata文件,百度谷歌必应了半天...
Spark
1,258
社区成员
1,168
社区内容
发帖
与我相关
我的任务
Spark
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
复制链接
扫一扫
分享
社区描述
Spark由Scala写成,是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于MapReduce算法实现的分布式计算。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章