python自动执行往数据库中insert into 数据,遇到Invalid session id,什么原因?

墨小月大大 2017-07-21 09:41:10
[size=14px]执行脚本
insert into webpower_core_db.url_path(click_name, url, source_path, content_path, client_name, mailingid)
VALUES ('%s','%s','%s','%s','%s','%s')

一共是11万条,让它自动执行一晚上,昨晚看的时候还是正常的,早晨起来一看,只插入了1142条,其他的插入信息,都显示: Invalid session id


求助求助,啥原因???大神指导下。
...全文
765 9 打赏 收藏 转发到动态 举报
写回复
用AI写文章
9 条回复
切换为时间正序
请发表友善的回复…
发表回复
philpy_used 2019-11-08
  • 打赏
  • 举报
回复
cookie过时了
墨小月大大 2017-07-21
  • 打赏
  • 举报
回复
引用 6 楼 xpresslink 的回复:
你就这基础还玩爬虫? 这个可能是由于网络中断等原因造成要爬的网页失去登录状态(session)造成的。 在程序里打一下日志跟踪一下。
还需要向你们前辈多学习学习,请教请教啊~~~
墨小月大大 2017-07-21
  • 打赏
  • 举报
回复
引用 6 楼 xpresslink 的回复:
你就这基础还玩爬虫? 这个可能是由于网络中断等原因造成要爬的网页失去登录状态(session)造成的。 在程序里打一下日志跟踪一下。
半路出家,没有厚实的基础啊。。。
混沌鳄鱼 2017-07-21
  • 打赏
  • 举报
回复
你就这基础还玩爬虫? 这个可能是由于网络中断等原因造成要爬的网页失去登录状态(session)造成的。 在程序里打一下日志跟踪一下。
墨小月大大 2017-07-21
  • 打赏
  • 举报
回复
引用 2 楼 xpresslink 的回复:
麻烦楼主把问题用人类能理解的语言重新编译一下。


额,不好意思哈,我详细的说下。。。
就是用python爬虫多个网页的内容,爬成功后,把每一个网页的url原信息和解析的内容存储到mysql的url_path表中。在执行到第1000多个网页的时候,就出现了这个invalid session id.。下面是我用的python的库
墨小月大大 2017-07-21
  • 打赏
  • 举报
回复
引用 3 楼 u012536120 的回复:
看你的问题,不知道根源在哪啊。
我操作数据库就没出现过什么invalid session id.

你考虑下,可不可以不要一条条地插入。
insert可以和select搭配的,如果能select出来,这样子insert会快很多


额,可能是我描述不准确
我重新描述下,就是用python爬虫多个网页的内容,爬成功后,把每一个网页的url原信息和解析的内容存储到mysql的url_path表中。在执行到第1000多个网页的时候,就出现了这个invalid session id.。下面是我用的python的库
sanGuo_uu 2017-07-21
  • 打赏
  • 举报
回复
看你的问题,不知道根源在哪啊。 我操作数据库就没出现过什么invalid session id. 你考虑下,可不可以不要一条条地插入。 insert可以和select搭配的,如果能select出来,这样子insert会快很多
混沌鳄鱼 2017-07-21
  • 打赏
  • 举报
回复
麻烦楼主把问题用人类能理解的语言重新编译一下。
墨小月大大 2017-07-21
  • 打赏
  • 举报
回复
不要沉下去啊~~~~~~~~~~ 等待大牛解答 Invalid session id 是啥原因。。。。。。。。。。。。。。。。。。。

37,720

社区成员

发帖
与我相关
我的任务
社区描述
JavaScript,VBScript,AngleScript,ActionScript,Shell,Perl,Ruby,Lua,Tcl,Scala,MaxScript 等脚本语言交流。
社区管理员
  • 脚本语言(Perl/Python)社区
  • IT.BOB
加入社区
  • 近7日
  • 近30日
  • 至今

试试用AI创作助手写篇文章吧