社区
数据仓库
帖子详情
kettle 的数据转移
fclangzily
2011-11-14 10:12:02
不知道应不应该发到这个区,如果有错误请帮忙转移。
我现在有两张表A和B,现在要实现A里的数据往B里实现增量转移。数据量大概在50万条左右。
条件1:B里有3个字段是A里没有的,并且不能为空,这三个字段需要用代码生成,然后插入。
条件2:A里的数据有可能每天都有添加、修改和删除,B里要实现同步。
kettle新手,看了两天的kettle文档,但是还是不知道如何下手,之前是用存储过程实现的,但是有点麻烦,所以想使用工具。
请各位帮忙给个方案,谢谢了!!!
...全文
327
3
打赏
收藏
kettle 的数据转移
不知道应不应该发到这个区,如果有错误请帮忙转移。 我现在有两张表A和B,现在要实现A里的数据往B里实现增量转移。数据量大概在50万条左右。 条件1:B里有3个字段是A里没有的,并且不能为空,这三个字段需要用代码生成,然后插入。 条件2:A里的数据有可能每天都有添加、修改和删除,B里要实现同步。 kettle新手,看了两天的kettle文档,但是还是不知道如何下手,之前是用存储过程实现的,但是有点麻烦,所以想使用工具。 请各位帮忙给个方案,谢谢了!!!
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
3 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
GG_wg
2012-03-29
打赏
举报
回复
在表里添加一个字段做为标识符,同步、修改时改变这个状态,当状态改变时对这些数据向b表进行新增或修改
bluewind863
2012-02-15
打赏
举报
回复
楼主针对的数据库有很多吗,如果只是纯oracle和sqlSERVER,可以考虑用数据库本身的CDC功能把要捕捉的表发布出来。
IBM有一款用于数据捕捉的通用CDC软件比较,如果有米可以考虑,呵呵
pyf_ting
2012-01-13
打赏
举报
回复
kettle本身没有实现触发器捕捉数据变化的机制,你如果需要实现这样的效果,需要在源数据那边做数据预处理,对源数据进行增、删、改的数据捕捉,然后与存储到临时表中。数据抽取对象再转换为这个临时表,按照时间戳来进行数据过滤,需要注意时间的格式。
java调用
kettle
提供的API实现
数据
抽取DEMO
通过调用
kettle
的API接口,实现将一个库的
数据
转移
到另一个
数据
库中。附件中同时提供了抽取需要的jar包
【
Kettle
】
数据
库
数据
转移
工具
NULL 博文链接:https://zliguo.iteye.com/blog/2289020
ETL之PDI/
Kettle
9.x/8.x案例培训实战从入门到应用案例
学完本课程,您将掌握: PDI/
Kettle
数仓技术 PDI/
Kettle
开源免费的ETL推送工具 PDI/
Kettle
数据
清洗 PDI/
Kettle
数据
抽取 PDI/
Kettle
数据
挖掘 PDI/
Kettle
案例实战 PDI/
Kettle
技巧 PDI/
Kettle
9.1版本 PDI/
Kettle
通用 ...
kettle
数据
库迁移
kettle
5.1对
数据
库的整套迁移,可以在spoot工具上使用,也可以把文件下载出来,用java代码来实现。针对小型
数据
库,
数据
量大的可能很慢
Oracle中如何对超大规模
数据
(如超过2亿条)直接用SQL语句入库?
在实际生产环境下,有时需将超大规模
数据
(如超过2亿条)导入分区表,但因原表与目的分区表的字段不一致,且用
Kettle
等转换工具极易失败,而用insert into select t1,t2.. from tab的Oracle SQL方式直接执行将导致...
数据仓库
7,388
社区成员
6,742
社区内容
发帖
与我相关
我的任务
数据仓库
其他数据库开发 数据仓库
复制链接
扫一扫
分享
社区描述
其他数据库开发 数据仓库
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章