postgres 数据库频繁插入,条数不够。

pujitan978 2019-10-17 02:00:36
在一个事物中,200条Insert,然后间隔5秒中再插入200条,测试10小时后,发现插入的数据比期待的数据要少几条。
在 mybatis sql log 中,发现insert 语句的,prepares:0.的情况发生。 从Log看200条插入时间200ms。

为什么发生插入失败(prepares:0)的情况,该怎么避免呢?

...全文
274 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
zhiluan7665 2019-10-27
  • 打赏
  • 举报
回复
Postgres本身没问题的,不要考虑偏了。批量大负荷,批量插入是没问题的。首先你需要确认下: 1)插入是否也有跟新呢,是否有同时更新一行的情况,如果有更新,可能有死锁的问题,数据会丢失。查看postgreslog 2) 准备的数据条数是否正确?把List打印出来,sql文也打开。 3)根据丢失时间,确认当时操作,确认log.当时哪些操作数据库。
oh_Maxy 2019-10-21
  • 打赏
  • 举报
回复
确定主键、唯一索引啥的都没问题吗?
还有,你的insert是用相关组件,还是自己实现的功能做的 ?
ml_dark 2019-10-21
  • 打赏
  • 举报
回复
我忘了是哪个版本的mysql也有这个问题,虽然事务控制了提交,但是预期结果就是不一样

81,092

社区成员

发帖
与我相关
我的任务
社区描述
Java Web 开发
社区管理员
  • Web 开发社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧