亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

更多QQ空间微信QQ好友腾讯朋友复制链接
您的位置:首頁/技術文章
文章詳情頁

使用Python爬取Json數據的示例代碼

【字号: 作者:豬豬瀏覽:73日期:2022-07-02 18:51:58

一年一度的雙十一即將來臨,臨時接到了一個任務:統計某品牌數據銀行中自己品牌分別在2017和2018的10月20日至10月31日之間不同時間段的AIPL(“認知”(Aware)、“興趣”(Interest)、“購買”(Purchase)、“忠誠”(Loyalty))流轉率。

使用Fiddler獲取到目標地址為:

https://databank.yushanfang.com/api/ecapi?path=/databank/crowdFullLink/flowInfo&fromCrowdId=3312&beginTheDate=20181020&endTheDate=20181031&toCrowdIdList[0]=3312&toCrowdIdList[1]=3313&toCrowdIdList[2]=3314&toCrowdIdList[3]=3315

本文中以爬取其中的AI流轉率數據為例。

該地址返回的響應內容為Json類型,其中紅框標記的項即為AI流轉率值:

使用Python爬取Json數據的示例代碼

實現代碼如下:

import requestsimport jsonimport csv # 爬蟲地址url = ’https://databank.yushanfang.com/api/ecapi?path=/databank/crowdFullLink/flowInfo&fromCrowdId=3312&beginTheDate=201810{}&endTheDate=201810{}&toCrowdIdList[0]=3312&toCrowdIdList[1]=3313&toCrowdIdList[2]=3314&toCrowdIdList[3]=3315’ # 攜帶cookie進行訪問headers = {’Host’:’databank.yushanfang.com’,’Referer’:’https://databank.yushanfang.com/’,’Connection’:’keep-alive’,’User-Agent’:’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36’,’Cookie’:’_tb_token_=iNkDeJLdM3MgvKjhsfdW; bs_n_lang=zh_CN; cna=aaj1EViI7x0CATo9kTKvjzgS; ck2=072de851f1c02d5c7bac555f64c5c66d; c_token=c74594b486f8de731e2608cb9526a3f2; an=5YWo5qOJ5pe25Luj5a6Y5pa55peX6Iiw5bqXOnpmeA%3D%3D; lg=true; sg='=19'; lvc=sAhojs49PcqHQQ%3D%3D; isg=BPT0Md7dE_ic5Ie3Oa85RxaMxbLK3UqJMMiN6o5VjH8C-ZRDtt7aRXb3fXGEAVAP’,} rows = []for n in range(20, 31): row = [] row.append(n) for m in range (21, 32): if m < n + 1: row.append('') else: # 格式化請求地址,更換請求參數 reqUrl = url.format(n, m) # 打印本次請求地址 print(url) # 發送請求,獲取響應結果 response = requests.get(url=reqUrl, headers=headers, verify=False) text = response.text # 打印本次請求響應內容 print(text) # 將響應內容轉換為Json對象 jsonobj = json.loads(text) # 從Json對象獲取想要的內容 toCntPercent = jsonobj[’data’][’interCrowdInfo’][1][’toCntPercent’] # 生成行數據 row.append(str(toCntPercent)+'%')# 保存行數據 rows.append(row) # 生成Excel表頭header = [’AI流轉率’, ’21’, ’22’, ’23’, ’24’, ’25’, ’26’, ’27’, ’28’, ’29’, ’30’, ’31’] # 將表頭數據和爬蟲數據導出到Excel文件with open(’D:respachongtmall.csv’, ’w’, encoding=’gb18030’) as f : f_csv = csv.writer(f) f_csv.writerow(header) f_csv.writerows(rows)

import csvimport jsonimport sslimport urllib.request # 爬蟲地址url = ’https://databank.yushanfang.com/api/ecapi?path=/databank/crowdFullLink/flowInfo&fromCrowdId=3312&beginTheDate=201810{}&endTheDate=201810{}&toCrowdIdList[0]=3312&toCrowdIdList[1]=3313&toCrowdIdList[2]=3314&toCrowdIdList[3]=3315’ # 不校驗證書ssl._create_default_https_context = ssl._create_unverified_context # 攜帶cookie進行訪問headers = {’Host’:’databank.yushanfang.com’,’Referer’:’https://databank.yushanfang.com/’,’Connection’:’keep-alive’,’User-Agent’:’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36’,’Cookie’:’_tb_token_=iNkDeJLdM3MgvKjhsfdW; bs_n_lang=zh_CN; cna=aaj1EViI7x0CATo9kTKvjzgS; ck2=072de851f1c02d5c7bac555f64c5c66d; c_token=c74594b486f8de731e2608cb9526a3f2; an=5YWo5qOJ5pe25Luj5a6Y5pa55peX6Iiw5bqXOnpmeA%3D%3D; lg=true; sg='=19'; lvc=sAhojs49PcqHQQ%3D%3D; isg=BPT0Md7dE_ic5Ie3Oa85RxaMxbLK3UqJMMiN6o5VjH8C-ZRDtt7aRXb3fXGEAVAP’,} rows = []n = 20while n <31: row = [] row.append(n) m =21 while m <32:if m < n + 1: row.append('') else: # 格式化請求地址,更換請求參數 reqUrl = url.format(n, m) # 打印本次請求地址 print(reqUrl) # 發送請求,獲取響應結果 request = urllib.request.Request(url=reqUrl, headers=headers) response = urllib.request.urlopen(request) text = response.read().decode(’utf8’) # 打印本次請求響應內容 print(text) # 將響應內容轉換為Json對象 jsonobj = json.loads(text) # 從Json對象獲取想要的內容 toCntPercent = jsonobj[’data’][’interCrowdInfo’][1][’toCntPercent’] # 生成行數據 row.append(str(toCntPercent) + '%') m = m+1 rows.append(row) n = n+1 # 生成Excel表頭header = [’AI流轉率’, ’21’, ’22’, ’23’, ’24’, ’25’, ’26’, ’27’, ’28’, ’29’, ’30’, ’31’] # 將表頭數據和爬蟲數據導出到Excel文件with open(’D:respachongtmall.csv’, ’w’, encoding=’gb18030’) as f : f_csv = csv.writer(f) f_csv.writerow(header) f_csv.writerows(rows)

導出內容如下:

使用Python爬取Json數據的示例代碼

到此這篇關于使用Python爬取Json數據的文章就介紹到這了,更多相關Python爬取Json數據內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 91精品国产福利尤物 | 最新黄色网址在线观看 | 午夜视频福利在线 | 成人黄色三级视频 | 日产国产精品久久久久久 | 又黄又爽又猛午夜性色播在线播放 | 免费网站看v片在线观看 | 亚洲欧美大片 | 毛片在线看免费版 | 国产一级毛片视频 | 国产午夜不卡 | 91青青国产在线观看免费 | 国产v精品欧美精品v日韩 | japan高清视频乱xxxxx | 亚洲视频在线免费播放 | 97色在线视频观看香蕉 | 国产成人精品一区 | 丁香婷婷激情综合 | 97久久天天综合色天天综合色hd | 久久国产成人精品国产成人亚洲 | 日本中文字幕不卡免费视频 | 在线观看 亚洲 | 在线播放国产一区二区三区 | 国产xvideos国产在线 | 婷婷色婷婷 | 亚洲精品国产美女在线观看 | 在线精品欧美日韩 | 中文日韩字幕一区在线观看 | 欧美一级特黄乱妇高清视频 | 国产成人啪一区二区 | 免费a一级毛片在线播放 | 美国三级毛片 | 中文字幕亚洲视频 | 国产一区二区三区美女在线观看 | 日本老妇成熟 | 欧美一区二区视频三区 | 搡女人视频免费 | 国产露出调教91 | 特黄aa级毛片免费视频播放 | 亚洲午夜影视 | 国产区二区 |