中间库的数据应该不会有问题,中间库的数据是从源表利用数据抽取工具直接抽取过来的,中间库不涉及undo表空间的问题。遇到bug的可能性也不大,通过查询转过来的表每秒数据确实是在几万几万的增加。我这个存储过程里面的逻辑相对是比较复杂的,好几个关系表,主键相互关联,根据业务逻辑1对多,甚至1对几百,所以我游标上面只有10000,但是我实际提交的几个表加起来就是几百w
回复11 楼 迁移数据不是直接从生产库取的数据,是先将生产库数据存入一个中间库(避免开库操作),然后再转的,所以其实不是在线迁移。 昨天减小提交量之后就没有报错了,看来的确是一次性提交数据量过大造成的。
先感谢各位大佬回复,回复五楼 commit是在代码的最后啊,所有表的字段赋值之后再提交,我贴出来的只是代码的开头。回复6楼 我这个没有涉及到并发,我只是在做迁移数据这个工作,原来的业务还是在老表的基础上进行,等正式上线才会切换到新的这套数据表中,因此我迁移数据是不影响业务的,保留时间已经增大了一倍。回复 8,9 楼 undo表空间大小现在是一个T ,问题依旧没有解决,每次提交量降到60w左右,希望不要在报错了
select tablespace_name,RETENTION from dba_tablespaces where tablespace_name='UNDOTBS1';
3,491
社区成员
18,714
社区内容
加载中
试试用AI创作助手写篇文章吧