scrapy在start_urls设置很多url会卡住

mmmaxxx 2017-04-09 11:01:28
我在start_urls中设置了百万级别的url数量,爬虫会直接卡住,而之前做过几十万个就没事,是不是不能在start_urls中设置这么大数量的url?
...全文
413 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
Maxwelll_ 2017-04-10
  • 打赏
  • 举报
回复
估计放在init里了

37,720

社区成员

发帖
与我相关
我的任务
社区描述
JavaScript,VBScript,AngleScript,ActionScript,Shell,Perl,Ruby,Lua,Tcl,Scala,MaxScript 等脚本语言交流。
社区管理员
  • 脚本语言(Perl/Python)社区
  • IT.BOB
加入社区
  • 近7日
  • 近30日
  • 至今

试试用AI创作助手写篇文章吧