亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術(shù)文章
文章詳情頁

Python常見反爬蟲機(jī)制解決方案

瀏覽:11日期:2022-07-23 16:18:55

1、使用代理

適用情況:限制IP地址情況,也可解決由于“頻繁點(diǎn)擊”而需要輸入驗證碼登陸的情況。

這種情況最好的辦法就是維護(hù)一個代理IP池,網(wǎng)上有很多免費(fèi)的代理IP,良莠不齊,可以通過篩選找到能用的。對于“頻繁點(diǎn)擊”的情況,我們還可以通過限制爬蟲訪問網(wǎng)站的頻率來避免被網(wǎng)站禁掉。

proxies = {’http’:’http://XX.XX.XX.XX:XXXX’}Requests: import requests response = requests.get(url=url, proxies=proxies)Urllib2: import urllib2 proxy_support = urllib2.ProxyHandler(proxies) opener = urllib2.build_opener(proxy_support, urllib2.HTTPHandler) urllib2.install_opener(opener) # 安裝opener,此后調(diào)用urlopen()時都會使用安裝過的opener對象 response = urllib2.urlopen(url)

2、時間設(shè)置

適用情況:限制頻率情況。

Requests,Urllib2都可以使用time庫的sleep()函數(shù):

import timetime.sleep(1)

3、偽裝成瀏覽器,或者反“反盜鏈”

有些網(wǎng)站會檢查你是不是真的瀏覽器訪問,還是機(jī)器自動訪問的。這種情況,加上User-Agent,表明你是瀏覽器訪問即可。有時還

會檢查是否帶Referer信息還會檢查你的Referer是否合法,一般再加上Referer。

headers = {’User-Agent’:’XXXXX’} # 偽裝成瀏覽器訪問,適用于拒絕爬蟲的網(wǎng)站headers = {’Referer’:’XXXXX’}headers = {’User-Agent’:’XXXXX’, ’Referer’:’XXXXX’}Requests: response = requests.get(url=url, headers=headers)Urllib2: import urllib, urllib2 req = urllib2.Request(url=url, headers=headers) response = urllib2.urlopen(req)

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持好吧啦網(wǎng)。

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 国产中文字幕在线视频 | 久久精品免费全国观看国产 | 香蕉免费高清完整 | 请看一下欧美一级毛片 | 麻豆污视频 | 久久久国产在线 | 亚洲国产精品日韩在线 | 久久在现 | 美女被免费网站在线视频九色 | 日韩在线手机看片免费看 | 亚洲欧洲毛片 | 国产视频97| 国产在线a不卡免费视频 | 黄色免费在线视频 | 日本特黄特色大片免费播放视频 | 国产精品人成人免费国产 | 日本久久黄色 | 黑人香蕉又粗又大视频免费 | 国产伦久视频免费观看 视频 | 欧美日韩综合视频 | 日韩在线国产精品 | 亚洲成人黄色网 | 日韩视频欧美视频 | 999精品久久久中文字幕蜜桃 | 日本黄色网页 | 欧美在线第一二三四区 | 国产精品综合一区二区 | 青青自拍视频一区二区三区 | 精品一区二区视频 | 9191国语精品高清在线最新 | 99久久国产综合色 | 一级毛片aaaaaa视频免费看 | 一级毛片不收费 | 麻豆网站在线 | 免费看黄视频 | 亚洲综合小视频 | 99pao在线视频成精品 | 品爱网在线观看视频免费视频 | 久久国产精品自由自在 | 色天天 | 欧美精品成人一区二区在线观看 |