MERGE INTO 优化

sbymdh2003 2018-06-06 04:06:26
代码如下:
MERGE INTO T_PA_CITEM_KIND t_pa
USING CCIC.PRPCITEMKIND t_p
ON (t_pa.POLICYNO = t_p.POLICYNO
AND t_pa.SEQNO = t_p.ITEMKINDNO )
WHEN MATCHED THEN
UPDATE
SET t_pa.RISKCODE = t_p.RISKCODE
, t_pa.CLAUSENAME = t_p.KINDNAME
, t_pa.KINDNAME = t_p.ItemDetailName
, t_pa.STARTDATE = t_p.STARTDATE
, t_pa.STARTHOUR = t_p.STARTHOUR
, t_pa.ENDDATE = t_p.ENDDATE
, t_pa.ENDHOUR = t_p.ENDHOUR
, t_pa.CURRENCY = t_p.CURRENCY
, t_pa.CALCULATEFLAG = t_p.CALCULATEFLAG
, t_pa.UNITAMOUNT = t_p.UNITAMOUNT
, t_pa.QUANTITY = t_p.QUANTITY
, t_pa.RATE = t_p.RATE
, t_pa.SHORTRATE = t_p.SHORTRATE
, t_pa.SHORTRATEFLAG = t_p.SHORTRATEFLAG
, t_pa.AMOUNT = t_p.AMOUNT
, t_pa.PREMIUM = t_p.PREMIUM
, t_pa.KINDVAT = t_p.KINDVAT
, t_pa.TNIPREMIUM = t_p.TNIPREMIUM
, t_pa.VATRATETYPE = t_p.VATRATETYPE
, t_pa.FLAG = t_p.FLAG
WHEN NOT MATCHED THEN
INSERT (POLICYNO, SEQNO, ITEMTYPE, REL_REF_SEQNO, RISKCODE, CLAUSECODE, CLAUSENAME, KINDCODE
, KINDNAME, STARTDATE, STARTHOUR, ENDDATE, ENDHOUR, CURRENCY, CALCULATEFLAG, UNITAMOUNT
, UNITPREMIUM, QUANTITY, RATE, SHORTRATE, SHORTRATEFLAG, AMOUNT, PREMIUM, KINDVAT
, TNIPREMIUM, VATRATETYPE, FLAG, ORIGININPUTFLAG)
VALUES( t_p.POLICYNO
, t_p.ITEMKINDNO
, NULL
, NULL
, t_p.RISKCODE
, null
, t_p.KINDNAME
, null
, t_p.ItemDetailName
, t_p.STARTDATE
, t_p.STARTHOUR
, t_p.ENDDATE
, t_p.ENDHOUR
, t_p.CURRENCY
, t_p.CALCULATEFLAG
, t_p.UNITAMOUNT
, NULL
, t_p.QUANTITY
, t_p.RATE
, t_p.SHORTRATE
, t_p.SHORTRATEFLAG
, t_p.AMOUNT
, t_p.PREMIUM
, t_p.KINDVAT
, t_p.TNIPREMIUM
, t_p.VATRATETYPE
, t_p.FLAG
, 'Y'
)
执行计划如下:


这两个表数据量都是4千万以上的。更新和插入的数据量都挺大的。实际执行过程还有一个时间标志,目前没有,所以没加。

执行时间太长,请问有什么优化的办法。两个都有主键,关联也是用主键关联的。
在线等,谢谢!
...全文
2313 8 打赏 收藏 转发到动态 举报
写回复
用AI写文章
8 条回复
切换为时间正序
请发表友善的回复…
发表回复
Mricoo_周 2018-12-07
  • 打赏
  • 举报
回复
这种大事务处理肯定要分成N个小事务来处理,比如用游标每10000行提交一次的方法更新,而且资源允许的话可以加上并行。你语句并不复杂只是单单的表体量把事务搞复杂化了
wjmwaq 2018-12-05
  • 打赏
  • 举报
回复
1、t_pa.POLICYNO , t_p.POLICYNO , t_pa.SEQNO , t_p.ITEMKINDNO 建立索引(数据类型要一致)
2、索引没用上的话可以指定使用索引。
3、marge Into 后增加 /*+parallel(t_pa,5) parallel(t_p,5) use_hash(t_pa,t_p)*/ 此语句为并发语句,你的cpu和内存要足够,否则可能会拖垮你的cpu,5可以自定义,相应减少。
3、如果整体表数据较多,分段执行,即10w一次执行,循环。
4、最后,merge Into 实际上也可使用以下方式进行。T_PA_CITEM_KIND 表上增加 iscurrent (默认为1,有效),
先update T_PA_CITEM_KIND set iscurrent=0 where exists (select 1 from PRPCITEMKIND f where f...=t... and f....=t....)
在 insert into T_PA_CITEM_KIND(字段,iscurrent) (select 字段,1 from PRPCITEMKIND)
每次取iscurrent=1的,此为数据仓库的做法,可以保留原始数据。具体看你是用。
秦根荣 2018-11-19
  • 打赏
  • 举报
回复
请添加索引联合索引或者parallel解决试试
桃花岛黄岛主 2018-06-25
  • 打赏
  • 举报
回复
兄弟,数据库要是都像你这么干,天河一号早晚也要跑死

这种千万级别的数据,肯定要做大事务分割,无论什么业务逻辑,量少的时间都要简单。量大的时候都不简单,就算是一个简单的SQL都可以完成的东西,也不能就一个简单的SQL就去做
「已注销」 2018-06-07
  • 打赏
  • 举报
回复
1.先确认update的数据量有多大? 2.update的数据量多的话要检查T_PA_CITEM_KIND t_pa 表索引,一般都会把索引禁用后重新rebuilt,因为修改数据会产生大量的日志。 3.CCIC.PRPCITEMKIND t_p获取新增和修改的保单,并不需要做全量保单数据同步
卖水果的net 2018-06-06
  • 打赏
  • 举报
回复
两个 4000W 都 要计算吗 ? 那最好分批更新,比如尝试原表每 10W 行一次。看看时间。
minsic78 2018-06-06
  • 打赏
  • 举报
回复
引用 1 楼 minsic78 的回复:
如果你用的关联字段就是目标表的主键字段,那么可能有几个改进措施: 1、看看两表连接字段是否类型不一致?如果不一致,那么转化临时表的字段类型与目标表保持一致,要么修改表定义,要么使用对应函数修改临时表连接条件; 2、如果不是1的原因,那么可以收集两表统计信息试试:exec dbms_stats.gather_table_stats('用户名',‘表名',cascade=>true,method_opt=>'for all indexed columns repeat') 3、如果经过以上调整都速度很慢,无法调整执行计划中的HASH JOIN成为NESTED LOOPS,那么就添加提示,加在merge关键字后面:merge /*+use_nl_with_index(t_pa)*/ 4、如果经过3还不行,那么继续发添加提示后的语句和执行计划上来
补充:如果你的临时表4千万数据全部参与merge,那么现在这个SQL慢是正常的,执行计划也可以说是合理的,但是如果实际跑的时候会有时间条件落到这张临时表上,过滤出少量记录,那么上贴发的建议才有实施的价值。
minsic78 2018-06-06
  • 打赏
  • 举报
回复
如果你用的关联字段就是目标表的主键字段,那么可能有几个改进措施: 1、看看两表连接字段是否类型不一致?如果不一致,那么转化临时表的字段类型与目标表保持一致,要么修改表定义,要么使用对应函数修改临时表连接条件; 2、如果不是1的原因,那么可以收集两表统计信息试试:exec dbms_stats.gather_table_stats('用户名',‘表名',cascade=>true,method_opt=>'for all indexed columns repeat') 3、如果经过以上调整都速度很慢,无法调整执行计划中的HASH JOIN成为NESTED LOOPS,那么就添加提示,加在merge关键字后面:merge /*+use_nl_with_index(t_pa)*/ 4、如果经过3还不行,那么继续发添加提示后的语句和执行计划上来
本课程目前总计105课时,并且不定期的进行新知识点的补充,目的是打造一部围绕MySQL的全体系课程。课程涵盖11大章节,分别是:第1章基础&技巧:这部分的重点是会讲解一些容易被开发人员忽略的技巧,例如utf8mb4字符集问题、如何使用外部临时表提高查询效率、快速创建同结构表及快速复制数据、截断表和删除数据使用和差异、以及怎样使用help语句查看帮助文档。第2章六大数据类型:这部分的重点是对MySQL的8种数字类型、5种日期和时间类型、10种字符串类型、枚举类型、集合类型和时间戳类型的区别和使用进行深入讲解。第3章数据库函数大全:MySQL中有上百种函数之多,使用函数可以快速的解决我们很多开发问题,但是由于我们掌握的函数不够多,往往没有办法实际应用,本章节重点是让你掌握更多好用而你不知道的函数使用。第4章数据库引擎精讲:本章节带您深入到MySQL的体系架构,深入理解innoDB、MyISAM、MEMORY、ARCHIVE引擎的区别和使用原则。第5章数据库索引精讲:索引是保障我们查询效率的重点,本章节从逻辑存储和物理存储的底层入手,深入剖析索引的存储结构和查找方法,掌握聚簇索引、非聚簇索引、前缀索引等的存取原理和使用技巧。第6章调优工具:工欲善其事必先利其器,本章节带你掌握读写比例查询、缓存设置、执行计划和Profile调优工具。第7章参数调优和索引调优:怎么样让SQL执行的更快、数据库的性能更强,怎样充分利用索引进行不断的优化。本章节会为您讲解16种MySQL的优化策略。第8章SQL调优:SQL语句是我们日常使用的重点,怎么样写出一手高性能的SQL语句,其实是具有一定技巧的,本章节讲解8种优化策略,让数据SQL执行性能更强。第9章分库分表:在面对海量数据的时候单表和单个数据库的性能始终会存在瓶颈,本章节为您讲解分库分表的原理和技巧,怎么样使用Merge引擎分表、深入掌握MySQL数据库分区表的能力。第10章高可用架构和安全管理:本部分涵盖MySQL的高可用架构,主备架构、主从架构、主从从架构、互为主从架构。数据的同步复制、半同步复制、异步复制。主从复制原理和主从延迟的问题,以及在管理和开发层面怎样保证数据库安全。第11章MySQL日志:对MySQL的7种日志进行讲解,包括errorlog错误日志、general log查询日志、slow log慢日志、binlog 二进制日志、redlog重做日志。课程会附带配套文档和SQL脚本。有问题可以直接联系作者,24小时线上答疑。

3,490

社区成员

发帖
与我相关
我的任务
社区描述
Oracle 高级技术相关讨论专区
社区管理员
  • 高级技术社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧