午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術(shù)文章
文章詳情頁

python爬蟲調(diào)度器用法及實例代碼

瀏覽:16日期:2022-07-03 16:26:17

我們一般使用爬蟲看到的都是最后的數(shù)據(jù)結(jié)果,對于整個的獲取過程沒有過多了解過。對于初學(xué)python的小伙伴們來說,不光是代碼的練習(xí),還是原理的分析都是必不可少的。

小編把整個爬取的過程分為了幾個部分,從一開始的下載,到數(shù)據(jù)的去重解析,再到整個爬蟲循環(huán)的結(jié)束,以圖片和代碼的雙重形式展現(xiàn)給大家,希望能夠?qū)ε老x調(diào)度器有一個深刻的理解。

我們可以編寫幾個元件,每個元件完成一項功能,下圖中的藍(lán)底白字就是對這一流程的抽象:

python爬蟲調(diào)度器用法及實例代碼

UrlManager:將存儲和獲取url以及url去重的幾個步驟在url管理器中完成(當(dāng)然也可以針對每一步分別編寫相應(yīng)的函數(shù),但是這樣更直觀)。url管理器要有兩個url倉庫,一個存儲未爬取的url,一個存儲已爬取的url,除了倉庫之外,還應(yīng)該具有一些完成特定功能的函數(shù),如存儲url、url去重、從倉庫中挑選并返回一個url等 HtmlDownloader:將下載網(wǎng)頁內(nèi)容的功能在HTML下載器中完成,下載器的功能較為單一,不多解釋。但從整個爬蟲的角度上來說,下載器是爬蟲的核心,在實際操作的過程中,下載器要和目標(biāo)網(wǎng)站的各種反爬蟲手段斗智斗勇(各種表單、隱藏字段和假鏈接、驗證碼、IP限制等等),這也是最耗費大腦的步驟 HtmlParser:解析提取數(shù)據(jù)的功能在HTML解析器中完成,解析器內(nèi)的函數(shù)應(yīng)該分別具有返回數(shù)據(jù)和新url的功能 DAtaOutput:存儲數(shù)據(jù)的功能由數(shù)據(jù)存儲器完成 SpiderMan:主循環(huán)由爬蟲調(diào)度器來完成,調(diào)度器為整個程序的入口,將其余四個元件有序執(zhí)行

爬蟲調(diào)度器將要完成整個循環(huán),下面寫出python下爬蟲調(diào)度器的程序:

# coding: utf-8new_urls = set()data = {}class SpiderMan(object): def __init__(self): #調(diào)度器內(nèi)包含其它四個元件,在初始化調(diào)度器的時候也要建立四個元件對象的實例 self.manager = UrlManager() self.downloader = HtmlDownloader() self.parser = HtmlParser() self.output = DataOutput() def spider(self, origin_url): #添加初始url self.manager.add_new_url(origin_url) #下面進入主循環(huán),暫定爬取頁面總數(shù)小于100 num = 0 while(self.manager.has_new_url() and self.manager.old_url_size()<100): try: num = num + 1 print '正在處理第{}個鏈接'.format(num) #從新url倉庫中獲取url new_url = self.manager.get_new_url() #調(diào)用html下載器下載頁面 html = self.downloader.download(new_url) #調(diào)用解析器解析頁面,返回新的url和data try: new_urls, data = self.parser.parser(new_url, html) except Exception, e: print e for url in new_urls: self.manager.add_new_url(url) #將已經(jīng)爬取過的這個url添加至老url倉庫中 self.manager.add_old_url(new_url) #將返回的數(shù)據(jù)存儲至文件 self.output.store_data(data) print 'store data succefully' print '第{}個鏈接已經(jīng)抓取完成'.format(self.manager.old_url_size()) except Exception, e: print e #爬取循環(huán)結(jié)束的時候?qū)⒋鎯Φ臄?shù)據(jù)輸出至文件 self.output.output_html()

從整個循環(huán)的流程我們可以看出,由爬蟲調(diào)度器指揮四個元件完成數(shù)據(jù)的抓取、篩選、保存流程,并以此為基礎(chǔ)還可以進行新的循環(huán)。看懂原理之后,我們就可以使用以上的代碼進行實戰(zhàn)啦。

到此這篇關(guān)于python爬蟲調(diào)度器用法及實例代碼的文章就介紹到這了,更多相關(guān)python爬蟲調(diào)度器是什么內(nèi)容請搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 青青国产在线 | 亚洲综合欧美 | 久久综合视频网 | 久久久久久久久久久久久久 | 黄色男女视频 | 三年中国国语在线播放 | 综合婷婷 | 尤物在线播放 | 国产成人黄色av | 四虎精品视频 | 超碰v| 日本一区二区精品视频 | 在线免费看黄 | 爱爱亚洲 | 成人精品三级av在线看 | 国产综合久久 | 制服.丝袜.亚洲.中文.综合懂色 | 超碰人人av | 亚洲午夜天堂 | 中文字幕在线高清 | 国产女18毛片多18精品 | 色婷婷在线播放 | 欧洲精品一区二区三区 | 天天草天天草 | 欧美日韩乱国产 | h网站在线播放 | 婷婷综合视频 | 久久精品国产成人av | 九九黄色 | 成人在线免费看 | 国产在线视频一区二区三区 | 国产一区二区三区影院 | 中文亚洲欧美 | 伊人网中文字幕 | 婷婷色亚洲 | 四虎福利| 中文字幕在线视频网站 | 国产精品久久欧美久久一区 | 天堂成人在线观看 | 亚洲一区二区三区精品视频 | 能看毛片的网站 |