scrapy的header authorization

取啥都被占用 2017-03-27 02:07:19
各位大神小牛,
抓取时候遇到需要用户名密码登录这种情况,想问一下大家是怎么玩的?
本人试验了好久都不成功。
试过中间件HttpAuthMiddleware,没疗效。

又想仿命令行的成功实验:
以下的code参照了这篇:https://stackoverflow.com/questions/42824249/how-can-use-scrapy-shell-with-url-and-basic-auth-credentials

import scrapy
from w3lib.http import basic_auth_header
from scrapy import Request
import sys # So to export Chinese characters
reload(sys)# So to export Chinese characters
sys.setdefaultencoding('utf8')# So to export Chinese characters

class MyxmlSpider(scrapy.Spider):
name = "PXML"
f = open("Batch.txt")
start_urls = [url.strip() for url in f.readlines()]
f.close()

def make_requests_from_url(self,url):
auth = basic_auth_header("user@xxx.com", "TS!")
return Request(url,headers={'Authorization':auth})

def parse(self, response):
myItems = ['B','BD','BG','BH','BQ']
#rest of the code


求有经验的同学点拨,非常谢谢!
...全文
310 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
取啥都被占用 2017-04-02
  • 打赏
  • 举报
回复
自己已经解决了这个问题。关于user-agent,以及之后redirection 报错要加个non_filter的参数。

37,719

社区成员

发帖
与我相关
我的任务
社区描述
JavaScript,VBScript,AngleScript,ActionScript,Shell,Perl,Ruby,Lua,Tcl,Scala,MaxScript 等脚本语言交流。
社区管理员
  • 脚本语言(Perl/Python)社区
  • IT.BOB
加入社区
  • 近7日
  • 近30日
  • 至今

试试用AI创作助手写篇文章吧