亚洲精品久久久中文字幕-亚洲精品久久片久久-亚洲精品久久青草-亚洲精品久久婷婷爱久久婷婷-亚洲精品久久午夜香蕉

您的位置:首頁技術(shù)文章
文章詳情頁

python - 如何爬取豆瓣電影的詳細(xì)信息

瀏覽:91日期:2022-09-22 08:53:05

問題描述

我想爬取每個電影的制片國家地區(qū),但是它上面并不在一個標(biāo)簽里面應(yīng)該怎么辦python - 如何爬取豆瓣電影的詳細(xì)信息我用的是request和BeautifulSoup

res2=requests.get(h2)res2.encoding=’utf-8’soup2=BeautifulSoup(res2.text)

這部分是已經(jīng)獲取該網(wǎng)頁

問題解答

回答1:

參考以下代碼:

#!/usr/bin/env python# -*- coding:utf-8 -*-import reimport requestsfrom bs4 import BeautifulSoupresult = requests.get(’https://movie.douban.com/subject/3541415/’)result.encoding = ’utf-8’soup = BeautifulSoup(result.text, ’html.parser’)try: info = soup.select(’#info’)[0] print re.findall(ur’(?<=制片國家/地區(qū): ).+?(?=n)’, info.text)[0]except Exception, e: print e回答2:

正則匹配</span>和<br>之間的內(nèi)容。

回答3:

1、可以用正則

2、建議用soup.find_all看文檔

https://www.crummy.com/softwa...

soup.find_all('title')# [<title>The Dormouse’s story</title>]soup.find_all('p', 'title')# [<p class='title'><b>The Dormouse’s story</b></p>]soup.find_all('a')# [<a id='link1'>Elsie</a>,# <a id='link2'>Lacie</a>,# <a id='link3'>Tillie</a>]soup.find_all(id='link2')# [<a id='link2'>Lacie</a>]

黃哥Python 回答

標(biāo)簽: 豆瓣 Python
相關(guān)文章:
主站蜘蛛池模板: 成人免播放器午夜视频 | 一级作爱视频 | 国产精品久久久久免费视频 | 妞干网在线视频观看 | 欧美专区一区二区三区 | 二级黄绝大片中国免费视频0 | 黄a大片| 91在线精品麻豆欧美在线 | 亚洲 欧洲 另类 综合 自拍 | 日韩一区二区三区在线视频 | 久久亚洲私人国产精品 | 国产第一页在线视频 | 国精品日韩欧美一区二区三区 | 国产精品福利资源在线 | 九九爱这里只有精品 | 久草热视频在线 | 欧美日韩国产一区二区三区在线观看 | 国产亚洲精品一区二区在线观看 | 最新亚洲| 97理论三级九七午夜在线观看 | 五月天久久婷婷 | 97久久久久 | 亚洲国产情侣一区二区三区 | 日韩精品大片 | 久久99精品波多结衣一区 | 国内一级特黄女人精品片 | 免费播放欧美毛片欧美a | 美国黄色片一级 | 久久午夜精品2区 | 国产精品成人免费视频 | 黄视频在线免费 | 色播影院性播12306影视 | 久久久久精彩视频 | 国产精品亚洲第一区在线28石 | 黄色片在线免费 | 亚洲欧美综合 | 亚洲网站黄色 | 久久精品国产亚洲网站 | 快射影院 | 永久在线视频 | 玖玖香蕉视频 |