午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

瀏覽:26日期:2022-08-06 16:43:24
目錄使用范例常用的對(duì)象–Tag常用的對(duì)象–NavigableString常用的對(duì)象–BeautifulSoup常用的對(duì)象–Comment對(duì)文檔樹(shù)的遍歷tag中包含多個(gè)字符串的情況.stripped_strings 去除空白內(nèi)容搜索文檔樹(shù)–find和find_allselect方法(各種查找)獲取內(nèi)容總結(jié)使用范例

from bs4 import BeautifulSoup#創(chuàng)建 Beautiful Soup 對(duì)象# 使用lxml來(lái)進(jìn)行解析soup = BeautifulSoup(html,'lxml')print(soup.prettify())

返回結(jié)果

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

常用的對(duì)象–Tag

就是 HTML 中的一個(gè)個(gè)標(biāo)簽

在上面范例的基礎(chǔ)上添加

from bs4 import BeautifulSoup#創(chuàng)建 Beautiful Soup 對(duì)象# 使用lxml來(lái)進(jìn)行解析soup = BeautifulSoup(html,'lxml')#print(soup.prettify())#創(chuàng)建 Beautiful Soup 對(duì)象soup = BeautifulSoup(html,’lxml’)print (soup.title)#None因?yàn)檫@里沒(méi)有tiele標(biāo)簽所以返回noneprint (soup.head)#None因?yàn)檫@里沒(méi)有head標(biāo)簽所以返回noneprint (soup.a)#返回 <a target='_blank'>編輯自我介紹,讓更多人了解你<span class='write-icon'></span></a>print (type(soup.p))#返回 <class ’bs4.element.Tag’>print( soup.p)

其中print( soup.p)

返回結(jié)果為

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

同樣地,在上面地基礎(chǔ)上添加

print (soup.name)# [document] #soup 對(duì)象本身比較特殊,它的 name 即為 [document]

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

print (soup.head.name)#head #對(duì)于其他內(nèi)部標(biāo)簽,輸出的值為標(biāo)簽本身的名稱

print (soup.p.attrs)##把p標(biāo)簽的所有屬性打印出來(lái),得到的類型是一個(gè)字典。

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

print (soup.p[’class’])#獲取P標(biāo)簽下地class標(biāo)簽

soup.p[’class’] = 'newClass'print (soup.p) # 可以對(duì)這些屬性和內(nèi)容等等進(jìn)行修改

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

常用的對(duì)象–NavigableString

前面地基礎(chǔ)上添加

print (soup.p.string)# The Dormouse’s storyprint (type(soup.p.string))# <class ’bs4.element.NavigableString’>thon

返回結(jié)果

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

常用的對(duì)象–BeautifulSoup

beautiful soup對(duì)象表示文檔的全部?jī)?nèi)容。大多數(shù)情況下,它可以被視為標(biāo)記對(duì)象。它支持遍歷文檔樹(shù)并搜索文檔樹(shù)中描述的大多數(shù)方法因?yàn)锽eauty soup對(duì)象不是真正的HTML或XML標(biāo)記,所以它沒(méi)有名稱和屬性。但是,有時(shí)查看其內(nèi)容很方便。Name屬性,因此美麗的湯對(duì)象包含一個(gè)特殊屬性。值為“[文檔]”的名稱

print(soup.name)#返回 ’[document]’常用的對(duì)象–Comment

用于解釋注釋部分的內(nèi)容

markup = '<b><!--Hey, buddy. Want to buy a used parser?--></b>'soup = BeautifulSoup(markup)comment = soup.b.stringtype(comment)# <class ’bs4.element.Comment’>對(duì)文檔樹(shù)的遍歷

在上面的基礎(chǔ)上添加

head_tag = soup.div# 返回所有子節(jié)點(diǎn)的列表print(head_tag.contents)

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

同理

head_tag = soup.div# 返回所有子節(jié)點(diǎn)的迭代器for child in head_tag.children: print(child)

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

tag中包含多個(gè)字符串的情況

可用 .strings 來(lái)循環(huán)獲取

for string in soup.strings: print(repr(string))

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

.stripped_strings 去除空白內(nèi)容

for string in soup.stripped_strings: print(repr(string))

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

搜索文檔樹(shù)–find和find_all

找到所有

print(soup.find_all('a',id=’link2’))

find方法是找到第一個(gè)滿足條件的標(biāo)簽后立即返回,返回一個(gè)元素。find_all方法是把所有滿足條件的標(biāo)簽都選到,然后返回。

select方法(各種查找)

#通過(guò)標(biāo)簽名查找:print(soup.select(’a’))#通過(guò)類名查找:#通過(guò)類名,則應(yīng)該在類的前面加一個(gè)’.’print(soup.select(’.sister’))#通過(guò)id查找:#通過(guò)id查找,應(yīng)該在id的名字前面加一個(gè)#號(hào)print(soup.select('#link1'))

查找a標(biāo)簽返回的結(jié)果

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

其他因?yàn)榫W(wǎng)頁(yè)本身沒(méi)有,返回的是一個(gè)空列表

組合查找

print(soup.select('p #link1'))#查找 p 標(biāo)簽中,id 等于 link1的內(nèi)容

子標(biāo)簽查找

print(soup.select('head > title'))

通過(guò)屬性查找

print(soup.select(’a[]’))#屬性與標(biāo)簽屬同一節(jié)點(diǎn),中間不能有空格獲取內(nèi)容

先查看類型

print (type(soup.select(’div’)))

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

for title in soup.select(’div’): print (title.get_text())

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

print (soup.select(’div’)[20].get_text())#選取第20個(gè)div標(biāo)簽的內(nèi)容

返回

python爬蟲(chóng)學(xué)習(xí)筆記--BeautifulSoup4庫(kù)的使用詳解

總結(jié)

本篇文章就到這里了,希望能給你帶來(lái)幫助,也希望您能夠多多關(guān)注好吧啦網(wǎng)的更多內(nèi)容!

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 成年人在线观看免费视频 | 国产欧美一级 | 日韩一区免费 | 欧美三级欧美一级 | 久久久麻豆 | 久久激情网 | 超碰2020| 久久久久久久伊人 | 天天草天天干 | 亚洲青涩在线 | 亚洲天堂福利 | 中文字幕日日夜夜 | 久久机热这里只有精品 | 黄色福利视频 | 在线视频a | 国产精品国产三级国产a | 久草免费在线视频 | 午夜欧美精品 | 精品国产一区在线观看 | 亚洲美女久久久 | 天堂欧美城网站 | 这里只有精品国产 | 日韩在线观看不卡 | 久久精品在线视频 | 污的视频在线观看 | 国产精品久久免费观看 | 毛片网站在线播放 | 69久久久久| 日本少妇喂奶 | 国产久草av | 91手机在线| 成年人视频免费网站 | 欧美黄色a级 | 欧美三级视频在线观看 | 成人综合网站 | 亚欧三级 | 视频一区二区在线播放 | 欧美第一页在线 | 蜜桃精品噜噜噜成人av | 日本高清黄色 | 国产成人a亚洲精品 |