亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術文章
文章詳情頁

用sleep間隔進行python反爬蟲的實例講解

瀏覽:3日期:2022-07-03 16:14:27

在找尋材料的時候,會看到一些暫時用不到但是內容不錯的網頁,就這樣關閉未免浪費掉了,下次也不一定能再次搜索到。有些小伙伴會提出可以保存網頁鏈接,但這種基本的做法并不能在網頁打不開后還能看到內容。我們完全可以用爬蟲獲取這方面的數據,不過操作過程中會遇到一些阻攔,今天小編就教大家用sleep間隔進行python反爬蟲,這樣就可以得到我們想到的數據啦。

步驟

要利用headers拉動請求,模擬成瀏覽器去訪問網站,跳過最簡單的反爬蟲機制。

獲取網頁內容,保存在一個字符串content中。

構造正則表達式,從content中匹配關鍵詞pattern獲取下載鏈接。需要注意的是,網頁中的關鍵詞出現了兩遍(如下圖),所以我們要利用set()函數清除重復元素。

第三步是遍歷set之后的結果,下載鏈接。

設置time.sleep(t),無sleep間隔的話,網站認定這種行為是攻擊,所以我們隔一段時間下載一個,反反爬蟲。

具體代碼

import urllib.request# url requestimport re # regular expressionimport os # dirsimport time’’’url 下載網址pattern 正則化的匹配關鍵詞Directory 下載目錄def BatchDownload(url,pattern,Directory): # 拉動請求,模擬成瀏覽器去訪問網站->跳過反爬蟲機制 headers = {’User-Agent’, ’Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36’} opener = urllib.request.build_opener() opener.addheaders = [headers] # 獲取網頁內容 content = opener.open(url).read().decode(’utf8’) # 構造正則表達式,從content中匹配關鍵詞pattern raw_hrefs = re.findall(pattern, content, 0) # set函數消除重復元素 hset = set(raw_hrefs) # 下載鏈接 for href in hset: # 之所以if else 是為了區別只有一個鏈接的特別情況 if(len(hset)>1): link = url + href[0] filename = os.path.join(Directory, href[0]) print('正在下載',filename) urllib.request.urlretrieve(link, filename) print('成功下載!') else: link = url +href filename = os.path.join(Directory, href) # 無sleep間隔,網站認定這種行為是攻擊,反反爬蟲 time.sleep(1) #BatchDownload(’https://www1.ncdc.noaa.gov/pub/data/swdi/stormevents/csvfiles/’,# ’(Storm-Data-Export-Format.docx)’,# ’E:stormeventscsvfiles’) # ’(Storm-Data-Export-Format.pdf)’,# ’(StormEvents_details-ftp_v1.0_d(d*)_c(d*).csv.gz)’,# ’(StormEvents_fatalities-ftp_v1.0_d(d*)_c(d*).csv.gz)’,# ’(StormEvents_locations-ftp_v1.0_d(d*)_c(d*).csv.gz)’,#BatchDownload(’https://www1.ncdc.noaa.gov/pub/data/swdi/stormevents/csvfiles/legacy/’,# ’(ugc_areas.csv)’,# ’E:stormeventscsvfileslegacy’)結果展示

為了讓大家能夠清楚的知道整個反爬過程,這里小編把思路和代碼都羅列了出來。其中可以time.sleep(t)解除網站對于爬蟲的阻攔問題,著重標記了出來

用sleep間隔進行python反爬蟲的實例講解

到此這篇關于用sleep間隔進行python反爬蟲的實例講解的文章就介紹到這了,更多相關如何使用sleep間隔進行python反爬蟲內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲人与牲动交xxxxbbbb | 亚洲欧美日韩国产精品久久 | 欧美一级毛片久久精品 | 国产日韩欧美一区二区 | 老师的丰满大乳奶水视频 | 亚洲综合在线观看一区www | 天天综合网天天综合色 | 国产免费久久精品99re丫y | 亚州免费一级毛片 | 爱操综合 | 一区二区视频在线免费观看 | 亚洲国产毛片aaaaa无费看 | 一级做一级爱a做片性视频视频 | 久青草视频97国内免费影视 | 九九黄色网| 欧美freexx | 国产精久久一区二区三区 | 成人欧美一区二区三区视频不卡 | 国产成人啪精品视频免费网站软件 | 国产精品尹人在线观看免费 | 国语自产精品视频在线区 | 激情五月婷婷 | 亚洲爱爱视频 | 国产精品欧美亚洲韩国日本 | 大香蕉毛片 | 亚洲在线看片 | 久久综合九色综合97婷婷女人 | 亚洲无吗在线视频 | 制服丝袜 自拍偷拍 | 51视频在线观看免费国产 | 靠逼久久| 婷婷激情在线 | 国产成人亚洲综合a∨婷婷 国产成人亚洲综合无 | 成人国产精品一级毛片天堂 | 亚洲欧美韩日 | 538prom精品视频在放免费 | 成 人 免费观看网站 | 亚洲精品自产拍在线观看 | 在线国产播放 | 邪恶亚洲 | 日产一一到六区麻豆 |