亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

python實現三種隨機請求頭方式

瀏覽:4日期:2022-06-30 13:02:04

相信大家在爬蟲中都設置過請求頭 user-agent 這個參數吧? 在請求的時候,加入這個參數,就可以一定程度的偽裝成瀏覽器,就不會被服務器直接識別為spider.demo.code ,據我了解的,我很多讀者每次都是直接從network 中去復制 user-agent 然后把他粘貼到代碼中, 這樣獲取的user-agent 沒有錯,可以用, 但是如果網站反爬措施強一點,用固定的請求頭可能就有點問題, 所以我們就需要設置一個隨機請求頭,在這里,我分享一下我自己一般用的三種設置隨機請求頭方式

思路介紹:

其實要達到隨機的效果,很大程度上我們可以利用隨機函數庫random 這個來實現,可以調用random.choice([user-agent]) 隨機pick數組中一個就可以了,這是我的一種方式。

python作為一個擁有眾多第三方包的語言,自然就有可以生成隨機請求頭的包咯,沒錯,就是fake-useragent 這個第三方庫了,稍后我們介紹一下這個函數庫的簡單使用。

既然別人可以寫第三方庫,自然自己也可以實現一個這樣的功能,大部分情況下,我很多代碼都是直接調用我自己實現的一個GetUserAgentCS 類,直接就可以獲取一個隨機請求頭了,直接寫函數庫,才牛逼舒服, 這個我也會在下面介紹如何編寫函數庫。

自己編寫第三方庫:

不知道你們寫代碼的框架是怎樣的,面向過程還是面向對象? 對于一次性的代碼,就簡單的編碼就行了,如果你覺得這個代碼它可以會在很多的地方用得到,可以重復使用,那么你就可以使用類的方式,去編寫這個代碼,那么在其他的文件中,你就可以直接調用你的寫這個文件,直接調用你寫的class類中的各種方法,而我也是這樣實現的一個隨機請求頭的一個第三方庫, 如下:

import randomimport csvclass GetUserAgentCS(object): ''' 調用本地請求頭文件, 返回請求頭 ''' def __init__(self): with open(’D://pyth//scrapy 項目//setting//useragent.csv’, ’r’) as fr: fr_csv = csv.reader(fr) self.user_agent = [str(i[1]) for i in fr_csv] def get_user(self): return random.choice(self.user_agent)

useragent文件如下:

1,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36'2,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/30.0.1599.17 Safari/537.36'3,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (X11; NetBSD) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.116 Safari/537.36'4,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (X11; CrOS i686 3912.101.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.116 Safari/537.36'5,'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36'-------------- # too much 100...

代碼很簡單的,讀取本地的csv文件,然后random一個出去就行了,那現在就有人問我,你這個文件怎么來的, 很簡單啊,自然就有方法了,待會在下一個模塊我會講到,在這里,我們只需要編寫一個GetUserAgentCS類就可以,代碼可以直接抄我上面的,然后保存為get_useragent.py 就可以了,然后你把這個包文件放在你自己爬蟲文件夾的地方,然后這樣調用:

from get_useragent import GetUserAgentCSheaders = {}ua = GetUserAgentCS().get_user()headers[’user-agent’] = uareturn headers

如果你在這個調用GetUserAgentCS 不成功, 或者底下會出現紅色的波浪線, 那么就是你沒有設置當前工作環境,你只需要這么設置(設置你的爬蟲文件夾):

python實現三種隨機請求頭方式

你需要點擊 Sources Root 就可以了!

使用第三方庫 fake-useragent:

這是一個別人已經寫好的第三方庫,你需要安裝然后調用API 就可以了, 它可以獲取各種的請求頭,唯一的缺點就是 請求不穩定,有的時候網絡波動就可能導致獲取不成功,用于Scrapy中,不是很舒服,所以我在這個包的基礎上,編寫了如上我自己的包,至于請求頭的數據怎么來的, 就是在這個包運行正常時候,一直更改user-agent,然后不斷的請求 http://httpbin.org/user-agent 然后不斷的保存數據,寫入本地文件就可以了。

我們還是講一講這個包的使用方式吧!

安裝

pip install fake-useragent

你可以 pip list 查看一下 是否安裝成功

使用方式

from fake_useragent import UserAgentheaders= {’User-Agent’:str(UserAgent().random)}r = requests.get(url, headers=headers) UserAgent().random 可以獲取任意瀏覽器的請求頭 UserAgent().Chrome 可以獲取谷歌瀏覽器的請求頭 UserAgent().firefox 可以獲取火狐瀏覽器的請求頭

這個時候,直接用random就可以了,簡單。

讀取內存數組:

這個時候就有很多人說, 我就換個請求頭而已,需要這么麻煩嗎? 當然,自然有簡單的方式,只不過每次都需要復制來用,不是很方法,具體如下:

ua = ['Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36''Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/30.0.1599.17 Safari/537.36''Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36,Mozilla/5.0 (X11; NetBSD) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.116 Safari/537.36']

預先把請求頭放入數組里面,然后用就可以了。

import randomua = [.....]r = requests.get(url, headers={'user-agent':random.choice(ua)})

以上就是我關于請求頭的幾種設置方式了,有需要補充的可以評論區留言。

教你用三種方式設置隨機請求頭, 爬蟲設置請求頭(user-agent)是必然的,那如何生成一個隨機請求頭這個也是我們爬蟲必須掌握的, 讀完本篇文章你就可以輕松掌握 !

到此這篇關于python實現三種隨機請求頭方式的文章就介紹到這了,更多相關python 隨機請求頭內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 日本特黄特色aa大片免费 | 伊人色综合网一区二区三区 | 日本一级不卡一二三区免费 | 一区二区三区影视 | 精品特级一级毛片免费观看 | 国内精品久久久久久 | 成人做爰www | 色婷婷五 | 国产精品推荐 | 国产亚洲精品一区二区在线观看 | 黄色片免 | 国产精品成人va在线观看入口 | 91在线视频| 免费观看全黄做爰 | 国产性生活视频 | 国产精品偷伦视频免费观看的 | 美国一级毛片免费看成人 | 免费一级特黄欧美大片勹久久网 | 三级毛片黄色 | 亚洲国产第一区二区三区 | 国产最新精品 | 你懂的国产精品 | 日韩欧美色综合 | 一区二区三区四区无限乱码 | 国产91精品一区二区视色 | 国产美女在线观看 | 视频在线观看免费播放www | 国产麻豆精品视频 | 精品国产福利在线观看网址2022 | 国产精品久久亚洲不卡4k岛国 | 国内精品一区二区三区αv 国内精品一区二区三区东京 | 一级特黄aaa大片在线观看视频 | 毛茸茸年轻成熟亚洲人 | 亚洲 欧美 日韩中文字幕一区二区 | 国产精品福利在线观看 | 亚洲免费观看在线视频 | 免费黄色一级 | 国产高清视频免费最新在线 | 日韩精品免费一区二区三区 | 黄大色大片免费久久 | 一级黄色片一级片 |