power center 大量数据测试的问题

keywaytang 2012-06-29 04:03:31
现在需要测试power center产生10万条数据需要的时间,但是跑到5w多条的时候,就报错
FATAL ERROR : Unexpected Condition in file [/export/home/build80/zeusbuild/vobs/powrmart/common/utils/pmmsg.cpp] line [317]. Contact Informatica Technical Support for assistance. Aborting this DTM process due to an unexpected condition.

使用命令查看unix server,发现free mem一直在减少,减少到3000左右就抛出这个错了。
...全文
4150 23 打赏 收藏 转发到动态 举报
写回复
用AI写文章
23 条回复
切换为时间正序
请发表友善的回复…
发表回复
「已注销」 2014-05-27
  • 打赏
  • 举报
回复
最好是数据批量入库
kentinyang 2014-05-23
  • 打赏
  • 举报
回复
一般数据量太大了,可以考虑分批次处理,有时候,以下处理太多,会把系统搞崩溃,建议,分拆的方式处理
matongcui 2014-05-22
  • 打赏
  • 举报
回复
看情况吧,具体点
zql742451429 2014-05-08
  • 打赏
  • 举报
回复
设置下,分批入库呗
ycachencheng 2014-05-07
  • 打赏
  • 举报
回复
能说具体点吗?
perry185 2013-12-30
  • 打赏
  • 举报
回复
设置下,分批入库呗
sanyuantc 2013-11-27
  • 打赏
  • 举报
回复
最好是数据批量入库, 要么把内存放大到能缓存10万数据以上
vallygirl 2013-11-12
  • 打赏
  • 举报
回复
session有个 commit interval 设置 1000条commit一次 或者 分配大点的内存
graysun 2013-11-06
  • 打赏
  • 举报
回复
是的,这需要看看到底在做什么操作,具体描述一下更好
elhao2011 2012-07-08
  • 打赏
  • 举报
回复
你是一次提交10万数据的操作吧?
这样应该会看到free mem一直在减少了!
最好是数据批量入库,
要么把内存放大到能缓存10万数据以上!!!不过还是不建议这样做

7,388

社区成员

发帖
与我相关
我的任务
社区描述
其他数据库开发 数据仓库
社区管理员
  • 数据仓库
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧