solr取消默认的分页设置

xiaopangza 2016-04-21 05:23:42
项目中需要拿出符合条件的所有数据做一次分析,但是solr必须设置分页,否则默认十条分页,想过写Integer.MAX_VALUE,但是会直接让服务器挂掉,求大神指点
...全文
1858 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
Aorui6 2017-09-14
  • 打赏
  • 举报
回复
楼主解决了吗,我也遇到了同样的需求
lxq19900106 2016-08-21
  • 打赏
  • 举报
回复
自己写个循环遍历吧 int rows = 32767; int start = 0; while(true){ SolrQuery query = new SolrQuery(); query.setStart(start); query.setRows(rows); query.setQuery(sqlStr); try { info.addAll(solrService.query("xxx", xxx.class,query)); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (SolrServerException e) { // TODO Auto-generated catch block e.printStackTrace(); } if(info.size()<rows){ break; }else{ start+=rows; rows+=rows; } }
lxq19900106 2016-08-21
  • 打赏
  • 举报
回复
solr官网不允许你这么干,你只能用分页去取
xiaopangza 2016-05-12
  • 打赏
  • 举报
回复
数据量太大了,而且不止一个进程会进行这个操作,所以想找一个能全查出来的方法,领导要求效率,没办法
莫忘 2016-05-10
  • 打赏
  • 举报
回复
你都知道会挂掉,还敢一次查询出来? 可以分页查询,把每次查询出来的10条或100条数据放到缓存中,不也能达到你的要求吗?

20,808

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧