亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python - 爬蟲模擬登錄后,爬取csdn后臺文章列表遇到的問題

瀏覽:78日期:2022-07-17 10:39:13

問題描述

爬蟲確實已經登錄進去了,因為我爬取個人信息是可以抓出來的,但是下圖的這個網址抓不出來:

網址是:http://write.blog.csdn.net/postlist,就是你的csdn后臺。

我貼下代碼吧,py2.7的

#!/usr/bin/env python# -*- coding: utf-8 -*-from bs4 import BeautifulSoupimport requestsclass CSDN(object): def __init__(self, headers):self.session = requests.Session()self.headers = headers def get_webflow(self):url = ’http://passport.csdn.net/account/login’response = self.session.get(url=url, headers=self.headers)soup = BeautifulSoup(response.text, ’html.parser’)lt = soup.find(’input’, {’name’: ’lt’})[’value’]execution = soup.find(’input’, {’name’: ’execution’})[’value’]soup.clear()return (lt, execution) def login(self, account, password):self.username = accountself.password = passwordlt, execution = self.get_webflow()data = { ’username’: account, ’password’: password, ’lt’: lt, ’execution’: execution, ’_eventId’: ’submit’}url = ’http://passport.csdn.net/account/login’response = self.session.post(url=url, headers=self.headers, data=data)if (response.status_code == 200): print(’正常’)else: print(’異常’) def func(self):headers1={ ’Host’:’write.blog.csdn.net’, ’Upgrade-Insecure-Requests’:’1’, ’User-Agent’:’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.133 Safari/537.36’}response=self.session.get(url=’http://write.blog.csdn.net/postlist’,headers=headers1,allow_redirects=False)print response.textif __name__ == ’__main__’: headers = {’Host’: ’passport.csdn.net’,’Origin’: ’http://passport.csdn.net’,’Referer’:’http://passport.csdn.net/account/login’,’Upgrade-Insecure-Requests’:’1’,’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.87 Safari/537.36’, } csdn = CSDN(headers=headers) account = ’’ password = ’’ csdn.login(account=account, password=password) csdn.func()

上面的代碼輸出是

正常<html><head><title>Object moved</title></head><body><h2>Object moved to <a >here</a>.</h2></body></html>

問題解答

回答1:

因為這個地址返回的是一個302跳轉,你要根據返回header的Location繼續請求,再分析返回的內容繼續處理,瀏覽器幫你做了這些302跳轉和執行返回的js等內容,手工抓取就需要自己處理.

回答2:

直接用cookie即可

標簽: Python 編程
主站蜘蛛池模板: 最近中文日本字幕免费完整 | 老外黑人一级毛片 | 国语偷拍视频在线观看 | 国内亚州视频在线观看 | 久久精品视频播放 | 综合一区 | 欧美特黄特色aaa大片免费看 | jpnesxxx日本| 91手机视频在线 | 黄色大片免费播放 | 国产日本亚洲欧美 | 热伊人99re久久精品最新地 | 黄色动作视频 | 久久久久久久国产精品影院 | 亚洲精品午夜一区二区在线观看 | 视频一区二区在线 | 在线播放国产视频 | 亚洲一级片在线观看 | 欧美精品人爱a欧美精品 | 免费爱爱网站 | 成人夜色视频在线观看网站 | 嘿嘿嘿视频免费网站在线观看 | 精品国产一区二区三区不卡在线 | 96精品国产高清在线看入口 | 国产精品精品视频 | 国产免费69成人精品视频 | 久久精品视频播放 | 91久久国产露脸精品免费 | 欧美色视频免费高清播放 | 欧美精品免费在线 | 瑟瑟网站免费 | 欧美日韩中文亚洲v在线综合 | 操日韩美女 | 一区二区成人国产精品 | 国产精品免费视频一区二区 | 欧美毛片网站 | 色噜噜狠狠在爱丁香 | 91网站桃色| 护士xxxx做爰 | 日本久久综合视频 | 一级特黄特黄xxx视频 |