社区
community_281
帖子详情
HadoopDev的留言板
数据饕餮
人工智能领域优质作者
博客专家认证
2020-01-02 06:39:45
大家好,这里是我的留言板,如果有问题,欢迎大家留言,我会第一时间进行回复
...全文
59
1
打赏
收藏
HadoopDev的留言板
大家好,这里是我的留言板,如果有问题,欢迎大家留言,我会第一时间进行回复
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
1 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
CodeHaoa
2020-03-15
打赏
举报
回复
大佬,求Python疫情监控系统源码
hadoop
_
dev
hadoop
_
dev
java连接sqoop源码-
hadoop
dev
:开发者
java连接sqoop源码
Hadoop
开发人员示例 这是
Hadoop
开发人员 gridU 课程的最后一项任务。 1.部署CDH集群 部署快速入门 ClouderaVM。 检查您是否安装了所有这些服务: 高密度文件系统 蜂巢 水槽 Sqoop 纱 动物园管理员 2. 实现随机事件生产者 使用 Java、Scala 或 Python 实现事件生产者。 每个事件消息描述单个产品购买。 生产者应该连接到 Flume 套接字(见下文)并以 CSV 格式发送事件,每行一个事件。 产品购买事件属性: 财产 分布类型要求 数据要求 产品名称 制服 产品价格 高斯 购买日期 时间 - 高斯日期 - 统一 1 周范围 产品分类 制服 客户端IP地址 制服 IPv4 随机地址 笔记 Hive CSV SerDe 使用 OpenCSV 库,因此您也可以尝试一下。 3.配置Flume使用NetCat Source消费事件 Flume 应该把事件放到 HDFS 目录events/${year}/${month}/${day} 尝试将 3000 多个事件分几批放入 HDFS 4.创建外部Hive表处理数据 外
Hadoop
运维记录系列(二十一)
Zeppelin启用https过程和Hack内核以满足客户需求的记录。原因是这客户很有意思,该客户中国分公司的人为了验证内网安全性,从国外找了一个***测试小组对Zeppelin和其他产品进行***测试,结果发现Zeppelin主要俩问题,一个是在内网没用https,一个是zeppelin里面可以执行shell命令和python语句。其实这不算大问题,zeppelin本来就是干这个用的。但是***...
Nosql数据库介绍
http://www.cnblogs.com/
hadoop
dev
/p/3613827.html
数据仓库专题23-原则!原则!原则!
原则1:吃进肚子里的算你的;1.野蛮生长阶段:为快不败;原则2:一切皆过程;一切都是过程,数据标准化是一个水道渠成的过程,不要拘于细节;昨日之结果,恰是今日之过程,业务驱动,以快速满足数据online为第一目标。原则3:场景驱动数据接入 转载于:https://www.cnblogs.com/
hadoop
dev
/p/5319989.html...
community_281
588
社区成员
254,074
社区内容
发帖
与我相关
我的任务
community_281
提出问题
复制链接
扫一扫
分享
社区描述
提出问题
其他
技术论坛(原bbs)
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章