Python爬蟲基礎(chǔ)之requestes模塊
開始學(xué)習(xí)爬蟲,我們必須了解爬蟲的流程框架。在我看來爬蟲的流程大概就是三步,即不論我們爬取的是什么數(shù)據(jù),總是可以把爬蟲的流程歸納總結(jié)為這三步:
1.指定 url,可以簡(jiǎn)單的理解為指定要爬取的網(wǎng)址
2.發(fā)送請(qǐng)求。requests 模塊的請(qǐng)求一般為 get 和 post
3.將爬取的數(shù)據(jù)存儲(chǔ)
二、requests模塊的導(dǎo)入因?yàn)?requests 模塊屬于外部庫(kù),所以需要我們自己導(dǎo)入庫(kù)
導(dǎo)入的步驟:
1.右鍵Windows圖標(biāo)
2.點(diǎn)擊“運(yùn)行”
3.輸入“cmd”打開命令面板
4.輸入“pip install requests”,等待下載完成
如圖:



如果還是下載失敗,我的建議是百度一下,你就知道(我也是邊學(xué)邊寫,是在是水平有限)
歐克,既然導(dǎo)入成功后我們就簡(jiǎn)單的來爬取一下搜狗的首頁(yè)吧!
三、完整代碼import requestsif __name__ == '__main__': # 指定url url = 'https://www.sougou.com/' # 發(fā)起請(qǐng)求 # get方法會(huì)返回一個(gè)響應(yīng)數(shù)據(jù) response = requests.get(url) # 獲取響應(yīng)數(shù)據(jù) page_txt = response.text # text返回一個(gè)字符串的響應(yīng)數(shù)據(jù) # print(page_txt) # 存儲(chǔ) with open('./sougou.html', 'w', encoding = 'utf-8') as fp:fp.write(page_txt) print('爬取數(shù)據(jù)結(jié)束?。。?)
我們打開保存的文件,如圖

歐克,這就是最基本的爬取,如果學(xué)會(huì)了,那就試一試爬取 B站 的首頁(yè)吧。
到此這篇關(guān)于Python爬蟲基礎(chǔ)之requestes模塊的文章就介紹到這了,更多相關(guān)Python requestes模塊內(nèi)容請(qǐng)搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!
相關(guān)文章:
1. vue 動(dòng)態(tài)給每個(gè)頁(yè)面添加title、關(guān)鍵詞和描述的方法2. HTML基礎(chǔ)知識(shí)總結(jié)3. Vue select 綁定動(dòng)態(tài)變量的實(shí)例講解4. HTML iframe標(biāo)簽用法案例詳解5. PHP對(duì)接阿里云虛擬號(hào)的實(shí)現(xiàn)(號(hào)碼隱私保護(hù))6. PHP基礎(chǔ)之生成器4——比較生成器和迭代器對(duì)象7. PHP文件運(yùn)行步驟以及數(shù)據(jù)庫(kù)的連接代碼8. 使用本機(jī)IIS?Express開發(fā)Asp.Net?Core應(yīng)用圖文教程9. intellij idea寫Python教程10. HTML-Canvas的優(yōu)越性能以及實(shí)際應(yīng)用

網(wǎng)公網(wǎng)安備