亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術(shù)文章
文章詳情頁

python - scrapy url去重

瀏覽:96日期:2022-08-24 16:35:16

問題描述

請問scrapy是url自動去重的嗎?比如下面這段代碼,為什么運行時start_urls里面的重復(fù)url會重復(fù)爬取了?

class TestSpider(scrapy.Spider): name = 'test' allowed_domains = ['baidu.com'] start_urls = [’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’,] def parse(self, response):for sel in response.xpath(’//p[@class='grid-list grid-list-spot']/ul/li’): item = TestspiderItem() item[’title’] = sel.xpath(’p[@class='list']/a/text()’)[0].extract() item[’link’] = sel.xpath(’p[@class='list']/a/@href’)[0].extract() yield item

問題解答

回答1:

建一個Url管理器,就不會重復(fù)抓取了

回答2:

知道了,改成這樣就可以了。

def start_requests(self):

yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 久久综合网址 | 国产成人免费手机在线观看视频 | 高清国产美女在线观看 | 最新毛片网 | 青青国产成人精品视频 | 国产免费福利体检区久久 | 最新国产 | 黄色一级在线视频 | 日本xxxxx护士16 | 日韩在线视频网 | 国内在线播放 | www.av网| 特级一级毛片视频免费观看 | 精品一区二区三区在线成人 | 欧美日本一道高清二区三区 | 国产伦精品一区二区 | 欧美日本一道高清二区三区 | 日本一级特黄刺激爽大片 | 午夜成人免费影院 | 欧美日韩乱码毛片免费观看 | 手机看片1024久久香蕉 | 在线看国产视频 | 欧美区国产区 | japanesexxxx护士 | 国产日产亚洲系列首页 | 真实国语对白视频播放 | 国产成人a毛片 | 亚洲麻豆精品果冻传媒 | 黄色录像一级毛片 | xvideos亚洲永久网址 | 亚洲日b | 亚洲综合色网站 | 国产亚洲一区在线 | 国内精品免费视频 | 99九九成人免费视频精品 | 欧美日产国产亚洲综合图区一 | 成人精品国产 | 美国一级黄色毛片 | 欧美aaaa在线观看视频免费 | 精品国免费一区二区三区 | 美国一级毛片在线观看 |