python爬虫重新连接的问题

树梢上的阿飞啊 2018-01-25 10:22:36
求助大佬,我利用爬虫爬取网上的数据,但是当网络断开重新连接的时候爬虫的请求就会一直失败,无法重新爬去数据,只能重新启动程序,这样太麻烦了。
def getcatalog(self,url,data,header,ip):
n = 0
while True:
try:
HTML = requests.post(url,data,header,proxies = ip)
n = 0
return HTML.text
except Exception:
HTML.close()
ip = choice(global_var.ip_list).split(':', 1) #更换ip
global_var.IP = {'http': ip[1]}
n += 1
if n >= 5:
print('请求失败,1分钟后重新连接')
n = 0
time.sleep(60)
else:
print('请求异常,以更换代理IP,5秒后重新发起请求')
time.sleep(5)

我断开网络后重新连接就无法重新爬去数据,只能重新启动程序
...全文
519 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
  • 打赏
  • 举报
回复
天啦,我傻逼了,偷懒捕捉的异常全是Exception,没有打印异常异常信息,错误的地方根本就不是这里,是我变量名重名导致的,以后再也不偷懒了,谢谢大佬提点
oyljerry 2018-01-25
  • 打赏
  • 举报
回复
客户端重新连接失败的时候,错误信息是什么,然后看代码应该如何处理

37,719

社区成员

发帖
与我相关
我的任务
社区描述
JavaScript,VBScript,AngleScript,ActionScript,Shell,Perl,Ruby,Lua,Tcl,Scala,MaxScript 等脚本语言交流。
社区管理员
  • 脚本语言(Perl/Python)社区
  • IT.BOB
加入社区
  • 近7日
  • 近30日
  • 至今

试试用AI创作助手写篇文章吧