运行scrapy爬虫时出错

11122323l123 2017-03-15 08:58:27
利用scrapy 爬取天猫商品页相关的东西,但是报错,,,找了好久也不知道怎么解决,,望大神能指导一下。错误如下:
2017-03-15 08:49:11 [scrapy.spidermiddlewares.offsite] DEBUG: Filtered offsite request to 'detail.tmall.com': <GET https://detail.tmall.com/item.htm?id=521811263733>
2017-03-15 08:49:11 [scrapy.core.engine] INFO: Closing spider (finished)
2017-03-15 08:49:11 [scrapy.core.engine] ERROR: Scraper close failure
Traceback (most recent call last):
File "e:\python35\lib\site-packages\twisted\internet\defer.py", line 653, in _runCallbacks
current.result = callback(current.result, *args, **kw)
TypeError: close_spider() takes 1 positional argument but 2 were given


页面源码为:


class MyxdSpider(scrapy.Spider):
name = "myxd"
allowed_domains = ["miaoyuxiaodiaosp.tmall.com"]
start_urls = ['http://miaoyuxiaodiaosp.tmall.com/']

def parse(self, response):
url = "https://miaoyuxiaodiaosp.tmall.com/search.htm"
yield Request(url=url, callback=self.page)

def page(self, response):
urldata = response.xpath("//div[@class='item4line1']//dl/@data-id").extract()
# print(urldata)
# print(len(urldata))
for j in range(0, len(urldata)):
thisid = urldata[j]
urll = "https://detail.tmall.com/item.htm?id=" + str(thisid)
# print(urll)
yield Request(url=urll, callback=self.final_buzou)

def final_buzou(self, response):
print(response.url)
...全文
1405 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
turbobin 2018-06-09
  • 打赏
  • 举报
回复
此问题我也出现过很多次,后来我发现把pipelines.py里 def close_spider(self): print("关闭爬虫......") self.f.close() 改成 def close_spider(self,spider): print("关闭爬虫......") self.f.close() 就好了。这里是覆盖方法,spider参数没用到也必须加上。
宇风 -飞扬 2017-07-29
  • 打赏
  • 举报
回复
scrapy.contrib.spiders已经过时了,请用scrapy.spiders替代 from scrapy.contrib.spiders import CrawlSpider 换成 from scrapy.spiders import CrawlSpider
龙熙 2017-07-27
  • 打赏
  • 举报
回复
我也有一样的问题,不知道怎么解决
首先一定要知道 Scrapy爬虫框架 对新手非常的不友好,或者从某些视频网站上跟着视频学或者说从培训机构里学几天技能掌握的,主要原因有以下两个方面。框架模块内容太多,虽然只是实现了一个简单的爬虫工作,但是实际上完成一个页面的抓取在框架里最少要走8个以上的步骤,但是这些步骤都是基本都是依靠配置文件完成的,没有丰富的爬虫经验,这些模块很多都不知道是做什么的,也不知道怎么配置。基于框架内进行数据抓取仅限于那些通用的网站抓取,你就简单理解为一个完成重复工作的机器人就行了。但是如果是那种反爬比较厉害的网站那就是另外一种情况了,完全是爬虫工程师和网站开发者的一个博弈了,所以这种情况不适合任何一种爬虫框架。对于那些想在工作中摸鱼的Python工程师来说就一定要使用爬虫框架,你会发现省不少力气而且效率真心非常高,不过一切都是在对框架熟练掌握的基础上、和对业务的深刻理解来说来说。但凡说 Scrapy 无用的基本上没有认真阅读过 Scrapy 的源码,对于 Scrapy框架 中的众多功能在搭建爬虫系统的候能想到用几个?而且是基本是没有做过大型的爬虫系统项目的。咱们倒着推这个事,你就知道为什么要用Scrapy框架了。我之前的单位是国家互联网的新闻中心,做的项目中的有一项是复现863课题舆情监控系统中的内容,使用的方法是 Scrapy爬虫框架 结合 Django Web 搭建的数据采集系统,抓取的目标对象包括新闻、博客、论坛等等,其中每天目标检测网站成千上万,如果不用框架去做这种数据采集得累死。1.抓取的数据存哪里?单纯Scrapy爬虫脚本写好了执行抓取任务数据保存到哪里?ES、Mongodb、MySQL?如果做过开发的人都知道存 Mongodb 中,那些说把数据存到 MySQL 的人基本上99%是从培训机构里出来的,因为大多数培训机构爬虫是不讲 Mongodb 的。通过业务计算逻辑把数据传输到生产 ES 环境中。2.几千、几万个爬虫脚本应该怎么管理?很多刚入行的人都觉得爬虫脚本难写,其实并不是这样。最难的是如何管理密密麻麻数不清的爬虫脚本,这里介绍Python如何处理这个事情。管理方式无非集中,Web管理环境、GUI管理环境、手动管理环境,不管是哪一种都需要一定的开发基础和管理思路。比较省事的用别人写好的Scrapy管理框架,比如Gerapy爬虫管理框架。如同这样web直接一键管理爬虫脚本,更多内容看上面的文章,这里就不重复了。3.Scrapy如何面对反爬的?跟大多数单线抓取某个网站解决其反爬一样,只要把反爬的逻辑设置好,比如最简单的更换代理IP,更换header,解析JS生成cookie访问等等,都可以在框架中设置配置文件。4.如何提高代码编写效率以及数据爬取效率?一定要阅读源码,一定要阅读源码,一定要阅读源码你才能知道这个框架里到底有什么内容可以用。5.基于Python各种框架开发的爬虫定制化项目。

37,719

社区成员

发帖
与我相关
我的任务
社区描述
JavaScript,VBScript,AngleScript,ActionScript,Shell,Perl,Ruby,Lua,Tcl,Scala,MaxScript 等脚本语言交流。
社区管理员
  • 脚本语言(Perl/Python)社区
  • IT.BOB
加入社区
  • 近7日
  • 近30日
  • 至今

试试用AI创作助手写篇文章吧