社区
Java EE
帖子详情
hibernate 为什么处理大量数据的时候效率低
sling2007
2011-03-04 10:24:57
hibernate为什么处理大量数据的时候效率低?
用什么可以优化呢
...全文
2804
18
打赏
收藏
hibernate 为什么处理大量数据的时候效率低
hibernate为什么处理大量数据的时候效率低? 用什么可以优化呢
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
18 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
liujie_24
2012-06-01
打赏
举报
回复
大量的数据,存储过程更快!一个很现实的问题,用户批量导入数据,我们应用存储过程导入数据,速度绝对可以!hibernate支持存储过程的!
feiyu107
2011-03-09
打赏
举报
回复
然后通过hibernate来调用存储过程
feiyu107
2011-03-09
打赏
举报
回复
建议如果是批量插入,更新可以使用oracle procedure来做
sling2007
2011-03-07
打赏
举报
回复
google得到的结果..........
查询性能往往是系统性能表现的一个重要方面,查询机制的优劣很大程度上决定了系统的整体性能。这个领域往往也存在最大的性能调整空间。
hibernate2中Session.find()对应于3中的session.createQuery().list();
hibernate2中Session.iterate()对应于3中的session.createQuery().iterate();
find和iterate区别:
find方法通过一条Select SQL实现了查询操作,而iterate方法要执行多条Select SQL.
iterate第一次查询获取所有符合条件的记录的id,然后再根据各个id从库表中读取对应的记录,这是一个典型的N+1次的查询问题,如果符合条件记录有10000条,就需要执行10001条Select SQL,可想性能会如何的差。
那为什么要提供iterator方法,而不只是提供高效率的find方法?
原因1.与hibernate缓存机制密切相关
find方法实际上是无法利用缓存的,它对缓存只写不读。
find方法只执行一次SQL查询,它无法判断缓存中什么样的数据是符合条件的,也无法保证查询结果的完整性。而iterate方法,会首先查询所有符合条件记录的id,然后根据id去缓存中找,如果缓存中有该id,就返回,没有可以根据id再去数据库查询。
String hql = "from TUser where age > ?";
List userList = session.find(hql, new Integer(18), Hibernate.INTEGER);
Iterator it = session.iterate(hql, new Integer(18), Hibernate.INTEGER);
顺序执行,iterate方法只会执行一次SQL查询,就是查找id,然后根据id就可以从缓存中获得数据。
String hql = "from TUser where age > ?";
List userList = session.find(hql, new Integer(18), Hibernate.INTEGER);
userList = session.find(hql, new Integer(18), Hibernate.INTEGER);
缓存是不起作用的。
如果目标数据读取相对较为频繁,通过iterate这种机制,会减少性能损耗。
原因2.内存使用上的考虑
find方法将一次获得的所有记录并将其读入内存。如果数据量太大,可能会触发OutOfMemoryError,从而导致系统异常。解决方案之一就是结合iterate方法和evict方法逐条对记录进行处理,将内存消化保持在一个可以接受的范围之内。如:
String hql = "from TUser where age > ?";
Iterator it = session.iterate(hql, new Integer(18), Hibernate.INTEGER);
while(it.hasNext()) {
TUser user = (TUser)it.next();
//将对象从一级缓存中删除
session.evict(user);
//二级缓存可以设定最大缓存量,达到后自动对较老数据进行废除,但也可以通过编
//码移除,这样有助于保持数据有效性。
sessionFactory.evict(TUser.class, user.getID());
}
Hibernate批量更新是指在一个事务中更新大批量数据,Hibernate批量删除是指在一个事务中删除大批量数据。以下程序直接通过Hibernate API批量更新CUSTOMERS表中年龄大于零的所有记录的AGE字段:
1. tx = session.beginTransaction();
2. Iterator customers=session.find("from Customer c where c.age>0").iterator();
3. while(customers.hasNext()){
4. Customer customer=(Customer)customers.next();
5. customer.setAge(customer.getAge()+1);
6. }
7. tx.commit();
8. session.close();
如果CUSTOMERS表中有1万条年龄大于零的记录,那么Session的find()方法会一下子加载1万个Customer对象到内存。当执行tx.commit()方法时,会清理缓存,Hibernate执行1万条更新CUSTOMERS表的update语句:
1. update CUSTOMERS set AGE=? …. where ID=i;
2. update CUSTOMERS set AGE=? …. where ID=j;
3. update CUSTOMERS set AGE=? …. where ID=k;
以上Hibernate批量更新方式有两个缺点:
(1) 占用大量内存,必须把1万个Customer对象先加载到内存,然后一一更新它们。
(2) 执行的update语句的数目太多,每个update语句只能更新一个Customer对象,必须通过1万条update语句才能更新一万个Customer对象,频繁的访问数据库,会大大降低应用的性能。
为了迅速释放1万个Customer对象占用的内存,可以在更新每个Customer对象后,就调用Session的evict()方法立即释放它的内存:
1. tx = session.beginTransaction();
2. Iterator customers=session.find("from Customer c where c.age>0").iterator();
3. while(customers.hasNext()){
4. Customer customer=(Customer)customers.next();
5. customer.setAge(customer.getAge()+1);
6. session.flush();
7. session.evict(customer);
8. }
9. tx.commit();
10. session.close();
在 以上程序中,修改了一个Customer对象的age属性后,就立即调用Session的flush()方法和evict()方法,flush()方法使 Hibernate立刻根据这个Customer对象的状态变化同步更新数据库,从而立即执行相关的update语句;evict()方法用于把这个 Customer对象从缓存中清除出去,从而及时释放它占用的内存。
但evict()方法只能稍微提高批量操作的性能,因为不管有没有使用evict()方法,Hibernate都必须执行1万条update语句,才能更新1万个Customer对象,这是影响批量操作性能的重要因素。假如Hibernate能直接执行如下SQL语句:
1. update CUSTOMERS set AGEAGE=AGE+1 where AGE>0;
那么以上一条update语句就能更新CUSTOMERS表中的1万条记录。但是Hibernate并没有直接提供执行这种update语句的接口。应用程序必须绕过Hibernate API,直接通过JDBC API来执行该SQL语句:
1. tx = session.beginTransaction();
2. Connection con=session.connection();
3. PreparedStatement stmt=con.prepareStatement("update CUSTOMERS set AGEAGE=AGE+1 "
4. +"where AGE>0 ");
5. stmt.executeUpdate();
6. tx.commit();
以 上程序演示了绕过Hibernate API,直接通过JDBC API访问数据库的过程。应用程序通过Session的connection()方法获得该Session使用的数据库连接,然后通过它创建 PreparedStatement对象并执行SQL语句。值得注意的是,应用程序仍然通过Hibernate的Transaction接口来声明事务边 界。
如果底层数据库(如Oracle)支持存储过程,也可以通过存储过程来执行Hibernate批量更新。存储过程直接在数据库中运行,速度更加快。在Oracle数据库中可以定义一个名为batchUpdateCustomer()的存储过程,代码如下:
1. create or replace procedure batchUpdateCustomer(p_age in number) as
2. begin
3. update CUSTOMERS set AGEAGE=AGE+1 where AGE>p_age;
4. end;
以上存储过程有一个参数p_age,代表客户的年龄,应用程序可按照以下方式调用存储过程:
1. tx = session.beginTransaction();
2. Connection con=session.connection();
3. String procedure = "{call batchUpdateCustomer(?) }";
4. CallableStatement cstmt = con.prepareCall(procedure);
5. cstmt.setInt(1,0); //把年龄参数设为0
6. cstmt.executeUpdate();
7. tx.commit();
从上面程序看出,应用程序也必须绕过Hibernate API,直接通过JDBC API来调用存储过程。
Session的各种重载形式的update()方法都一次只能更新一个对象,而delete()方法的有些重载形式允许以HQL语句作为参数,例如:
1. session.delete("from Customer c where c.age>0");
如果CUSTOMERS表中有1万条年龄大于零的记录,那么以上代码能删除一万条记录。但是Session的delete()方法并没有执行以下delete语句
1. delete from CUSTOMERS where AGE>0;
Session的delete()方法先通过以下select语句把1万个Customer对象加载到内存中:
1. select * from CUSTOMERS where AGE>0;
接下来执行一万条delete语句,逐个删除Customer对象:
1. delete from CUSTOMERS where ID=i;
2. delete from CUSTOMERS where ID=j;
3. delete from CUSTOMERS where ID=k;
由 此可见,直接通过Hibernate API进行Hibernate批量更新和Hibernate批量删除都不值得推荐。而直接通过JDBC API执行相关的SQL语句或调用相关的存储过程,是Hibernate批量更新和Hibernate批量删除的最佳方式,这两种方式都有以下优点:
(1) 无需把数据库中的大批量数据先加载到内存中,然后逐个更新或修改它们,因此不会消耗大量内存。
(2) 能在一条SQL语句中更新或删除大批量的数据。
火龙果被占用了
2011-03-05
打赏
举报
回复
如果 Hibernate 用了关联、级联的话,那样效率会更低!
zengtao360220
2011-03-05
打赏
举报
回复
Hibernate在遇到大量的数据量的时候,效率是会比较低的.....而hibernate他有一级缓存和二级缓存啊!一级缓存是默认使用的,如果遇到大量的数据的时候就需要配置个二级缓存咯;至于优化大都是关于表关系间的处理,可以上网查找看看..............
JDBC相对来说似乎是能更好的快速的处理大量的数据。
总之各有各的好处啦!
酒剑仙
2011-03-04
打赏
举报
回复
hibernate 在处理大数据的时候性能是会降低。
合理的设计表结构 可以缓解这一现状。
hnyywq
2011-03-04
打赏
举报
回复
没有办法优化的,像批量删除和批量增加的时候,Hibernate是没有办法改进的,速度很慢。。。
zhuming12345
2011-03-04
打赏
举报
回复
[Quote=引用 2 楼 gray_sky 的回复:]
我也觉得hibernate在处理大量数据时效率不是很好,lz可以通过配置二级缓存,延迟加载等方式缓解,但还是尽量避免过大量数据的处理。
[/Quote]
方法可以!
如果是高性能开发的话,建议用JDBC会好些!
Gray_Sky
2011-03-04
打赏
举报
回复
我也觉得hibernate在处理大量数据时效率不是很好,lz可以通过配置二级缓存,延迟加载等方式缓解,但还是尽量避免过大量数据的处理。
龙四
2011-03-04
打赏
举报
回复
这个需要一个使用hibernate经验丰富的人才行
新手一般做出来得效率据说都比较低
Inhibitory
2011-03-04
打赏
举报
回复
大量的生成对象,反射的问题,导致Hibernate效率相对会较低,这是没有办法的
Hibernate是表与对象的映射(一个对象映射到一个表)。
MyBatis是查询结果与对象的映射(SQL经常涉及多个表),复杂查询会比Hibernate快一些。
风过无痕1110
2011-03-04
打赏
举报
回复
老是讨论这个问题恶心不
sunwei_07
2011-03-04
打赏
举报
回复
同意LS,习惯用SQL + iBatis。个人觉得性能至上的项目还是别用Hibernate吧
zhang2009
2011-03-04
打赏
举报
回复
用IBATIS,自己写SQL
sling2007
2011-03-04
打赏
举报
回复
[Quote=引用 7 楼 zxingchao2009 的回复:]
hibernate应该是无辜的
楼主应该学习一下数据库的优化,比如建立索引,优化hql语句等
[/Quote]
汗~~
UPC_思念
2011-03-04
打赏
举报
回复
hibernate应该是无辜的
楼主应该学习一下数据库的优化,比如建立索引,优化hql语句等
通俗易懂的
Hibernate
教程(含配套资料)
本教程为授权出品教程 本Java视频教程基于
Hibernate
4.x 录制。内容涵盖安装
Hibernate
tools 插件、Session 核心方法、持久化对象生命周期、对象关系映射(1-n、1-1、n-n、继承映射)、检索策略、检索方式(对象导航...
Hibernate
大
数据
量
处理
,
大量
数据
处理
代码优化方法概念(转载)
1) 在
处理
大
数据
量时,会有
大量
的
数据
缓冲保存在Session的一级缓存中,这缓存大太时会严重显示性能,所以在使用
Hibernate
处理
大
数据
量的,可以使用session.clear()或者session. Evict(Object) 在
处理
过程中,清除...
java
hibernate
批量更新_
Hibernate
批量
处理
海量
数据
的方法
本文实例讲述了
Hibernate
批量
处理
海量
数据
的方法。分享给大家供大家参考,具体如下:
Hibernate
批量
处理
海量其实从性能上考虑,它是很不可取的,浪费了很大的内存。从它的机制上讲,
Hibernate
它是先把符合条件的
数据
...
Hibernate
批量插入
大量
数据
速度性能慢的解决方案
Hibernate
批量插入
大量
数据
速度性能慢的解决方案
Hibernate
的缓存,
Hibernate
有内部缓存与二级缓存之说。由于
Hibernate
对这两种缓存有着不同的管理机制,对于二级缓存,我们可以对它的大小进行相关配置,而对于内部...
解决
Hibernate
效率
低
下问题
客户机器
数据
量大概在1W5左右,加大请求超时时间后,虽然不会崩溃,但是依然慢的吓人,1W5的
数据
,居然需要30~40多秒钟; 系统是使用SSH框架开发,因为关联关系比较多,所以使用
Hibernate
进行管理
数据
库,是最合适...
Java EE
67,513
社区成员
225,879
社区内容
发帖
与我相关
我的任务
Java EE
J2EE只是Java企业应用。我们需要一个跨J2SE/WEB/EJB的微容器,保护我们的业务核心组件(中间件),以延续它的生命力,而不是依赖J2SE/J2EE版本。
复制链接
扫一扫
分享
社区描述
J2EE只是Java企业应用。我们需要一个跨J2SE/WEB/EJB的微容器,保护我们的业务核心组件(中间件),以延续它的生命力,而不是依赖J2SE/J2EE版本。
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章