亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

瀏覽:90日期:2022-09-17 10:49:15

問題描述

用scrapy爬了圖書館書籍的書名和評論,用Chrome的檢查拔下來的Xpath,但是運行爬蟲返回的是空元素,請問各位哪里出了問題,謝謝大家。截圖:

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

附上我的Scrapy源碼,請大家多指教,謝謝!

from scrapy import Spiderfrom scrapy.selector import Selectorfrom CommentCrawl.items import CommentcrawlItemclass commentcrawl(Spider): name = 'commentcrawl' allowed_domains = ['http://opac.lib.bnu.edu.cn:8080'] start_urls = ['http://opac.lib.bnu.edu.cn:8080/F/S9Q2QIQV5D9R9HBHPI2KNN8JH11TRIRSIEPKYQLTAQQ17LA6B6-16834?func=full-set-set&set_number=010408&set_entry=000001&format=999', ] def parse(self,response):item = CommentcrawlItem()item[’name’] = Selector(response).xpath(’//*[@id='details2']/table/tbody/tr[1]/td[2]/a/text()’).extract()item[’comment’] = Selector(response).xpath(’//*[@id='localreview']/text()’).extract()yield item

問題解答

回答1:

頁面需要登錄才能訪問,缺少登錄操作。

回答2:

網頁爬蟲 - Python小白用Scrapy爬蟲返回的是空元素,請問各位大神哪里出了問題?

頁面被登錄攔截了。

回答3:

你把你實際獲得的內容打印或者保存完了,看看是什么內容。估計是返回的內容跟你的 Xpath 匹配不上,該登錄的登錄啊。

標簽: Python 編程
主站蜘蛛池模板: 最近最新中文字幕在线第一页 | 亚洲免费久久 | 日本欧美久久久久免费播放网 | 欧美亚洲精品一区 | 日韩成人综合网 | 俄罗斯一级毛片aaaa | 国产成人久久精品一区二区三区 | 黄色特一级片 | 亚洲一级片网站 | 午夜成a人片在线观看 | 小明看看成人免费视频 | 国产大量女主播精品视频 | 97香蕉超级碰碰碰久久兔费 | 国产一区日韩二区欧美三 | 特黄特色网站 | 香蕉视频色板 | 国产精品日韩欧美亚洲另类 | 黄色一级视频播放 | 国产精品一区久久 | 国产成人亚洲精品蜜芽影院 | 久久久久99 | 国产成人经典三级在线观看 | 日韩性生活片 | 色综合亚洲七七久久桃花影院 | 看片网站在线 | 国产精品久久久久久久久久久久 | 婷婷亚洲五月色综合 | 伊人9999| 欧美日韩一区二区不卡三区 | 日本一区二区免费在线 | 在线观看日本免费视频大片 | 不卡的在线视频免费观看 | 亚洲精品精品 | 国产日产欧产精品精品软件 | 怡红院免费va男人的天堂 | 91网站视频在线观看 | 大片免费观看在线视频 | 久久亚洲福利 | 国产曰批的免费视频 | 黄色欧美视频 | 国产一级在线播放 |