亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁/技術文章
文章詳情頁

Python Scrapy多頁數據爬取實現過程解析

瀏覽:140日期:2022-07-21 14:49:48

1.先指定通用模板

url = ’https://www.qiushibaike.com/text/page/%d/’#通用的url模板pageNum = 1

2.對parse方法遞歸處理

parse第一次調用表示的是用來解析第一頁對應頁面中的數據

對后面的頁碼的數據要進行手動發送

if self.pageNum <= 5: self.pageNum += 1 new_url = format(self.url%self.pageNum) #手動請求(get)的發送 yield scrapy.Request(new_url,callback=self.parse)

完整示例

class QiubaiSpider(scrapy.Spider): name = ’qiubai’ # allowed_domains = [’www.xxx.com’] start_urls = [’https://www.qiushibaike.com/text/’] url = ’https://www.qiushibaike.com/text/page/%d/’#通用的url模板 pageNum = 1 #parse第一次調用表示的是用來解析第一頁對應頁面中的段子內容和作者 def parse(self, response): div_list = response.xpath(’//*[@id='content-left']/div’) all_data = [] for div in div_list: author = div.xpath(’./div[1]/a[2]/h2/text()’).extract_first() content = div.xpath(’./a[1]/div/span//text()’).extract() content = ’’.join(content) # 將解析的數據存儲到item對象 item = QiubaiproItem() item[’author’] = author item[’content’] = content # 將item提交給管道 yield item # item一定是提交給了優先級最高的管道類 if self.pageNum <= 5: self.pageNum += 1 new_url = format(self.url%self.pageNum) #手動請求(get)的發送 yield scrapy.Request(new_url,callback=self.parse)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 久久www免费人成精品香蕉 | 99久久精品国产高清一区二区 | 欧美成人免费全部观看天天性色 | 国产成人拍精品视频网 | 久久久久久国产视频 | 国产欧美视频在线观看 | 日本人伦一区二区三区 | 国产看片一区二区三区 | 欧美三级欧美做a爱 | xvideos亚洲入口地址 | 久久精品在 | 免费爱爱视频 | 国产在线日韩在线 | 国产高清在线精品一区在线 | 伊人久久综合 | 在线观看高清视频bbixx | 亚洲成aⅴ人片在线观 | 欧美一级片在线免费观看 | 黄网站免费视频 | 欧美激情人成日本在线视频 | 94在线成人免费视频 | 特黄特色的大片观看免费视频 | 色婷婷六月丁香在线观看 | 国产在线一卡 | 国产美女野外做爰 | 我要看一级黄色片 | 青青青视频免费一区二区 | 婷婷国产天堂久久综合五月 | 欧美黄色一级毛片 | 黄色a级片在线观看 | 五月天婷婷网亚洲综合在线 | 老司机深夜福利在线观看 | 日批在线视频 | 久久电影精品久久99久久 | 香蕉视频在线网站 | 日本一级毛片免费完整视频2020 | 未满十八18周岁禁止免费国产 | 十六一下岁女子毛片免费 | 国产一级毛片一区二区三区 | 可以在线观看的黄色网址 | 亚洲免费久久 |