午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術文章
文章詳情頁

python - 網頁更新數據之后無法再次抓取

瀏覽:177日期:2022-07-05 15:55:15

問題描述

我抓取的網頁今天更新了一條信息,然后爬蟲運行了卻沒有抓取到.

from pyspider.libs.base_handler import *from pyspider.database.mysql.mysqldb import SQLclass Handler(BaseHandler): crawl_config = { } @every(minutes=24 * 60) def on_start(self):self.crawl(’http://www.yxztb.net/yxweb/zypd/012001/012001001/’, callback=self.index_page) @config(age=10 * 24 * 60 * 60) def index_page(self, response):for each in response.doc(’.tdmoreinfosub a’).items(): self.crawl(each.attr.href, callback=self.detail_page)@config(priority=2) def detail_page(self, response):return {'address':'宜興市','url':response.url,'title':response.doc(’font span’).text(),'date' :response.doc(’#tdTitle > .webfont’).text()[8:17], }def on_result(self, result):print resultif not result or not result[’title’]: returnsql = SQL()sql.replace(’zhaobiao’,**result)

python - 網頁更新數據之后無法再次抓取

希望大佬們能講的具體點然后多交流交流

問題解答

回答1:

@config (age)參數設定直接忽略了index.page的執行

回答2:

既然 on_start 的 @every 是一天,那么self.crawl 中設置 age=12 * 60 * 60 半天是比較合適的,保證每次 every 肯定不會被 age 所限制。另外 @config(age=10 * 24 * 60 * 60),這是10天內不要再爬的意思啊。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 四虎最新地址 | 天堂久久精品 | 久久深夜福利 | a久久久久 | 香蕉久久久久 | 成年人在线观看网站 | 亚洲第一色网 | 日本一道本视频 | 色综合av | 高清不卡一区二区 | 久久精品91 | 久久精品99| 婷婷色九月 | 日韩精品视频中文字幕 | 亚洲a在线播放 | 性色av免费 | 午夜在线一区二区 | 日韩一级免费毛片 | 国产在线激情视频 | 成人免费网站在线观看 | 精品福利一区 | 午夜毛片在线 | 国产福利在线播放 | 黄色片欧美 | 久久看片 | 亚洲视频在线一区 | 四虎成人av | 18性xxxxx性猛交 | 1级片在线观看 | 在线观看成人小视频 | 成年视频在线播放 | 天天综合网久久综合网 | 色悠久久久 | 五月婷婷一区二区三区 | 97在线免费观看视频 | 日韩精品999 | 青青在线精品 | 亚洲一区二区三区精品视频 | 一区二区三区高清不卡 | 91精品国产日韩91久久久久久 | 日韩中文字幕一区 |