午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術文章
文章詳情頁

python - 網頁更新數據之后無法再次抓取

瀏覽:186日期:2022-07-05 15:55:15

問題描述

我抓取的網頁今天更新了一條信息,然后爬蟲運行了卻沒有抓取到.

from pyspider.libs.base_handler import *from pyspider.database.mysql.mysqldb import SQLclass Handler(BaseHandler): crawl_config = { } @every(minutes=24 * 60) def on_start(self):self.crawl(’http://www.yxztb.net/yxweb/zypd/012001/012001001/’, callback=self.index_page) @config(age=10 * 24 * 60 * 60) def index_page(self, response):for each in response.doc(’.tdmoreinfosub a’).items(): self.crawl(each.attr.href, callback=self.detail_page)@config(priority=2) def detail_page(self, response):return {'address':'宜興市','url':response.url,'title':response.doc(’font span’).text(),'date' :response.doc(’#tdTitle > .webfont’).text()[8:17], }def on_result(self, result):print resultif not result or not result[’title’]: returnsql = SQL()sql.replace(’zhaobiao’,**result)

python - 網頁更新數據之后無法再次抓取

希望大佬們能講的具體點然后多交流交流

問題解答

回答1:

@config (age)參數設定直接忽略了index.page的執行

回答2:

既然 on_start 的 @every 是一天,那么self.crawl 中設置 age=12 * 60 * 60 半天是比較合適的,保證每次 every 肯定不會被 age 所限制。另外 @config(age=10 * 24 * 60 * 60),這是10天內不要再爬的意思啊。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 日韩综合在线观看 | 99久久久精品免费观看国产 | 一级片免费在线观看 | 成人免费视频网站 | 人成网站在线观看 | 国产精品波多野结衣 | 99热这里只有精品首页 | 天天躁日日躁狠狠躁 | 国产一区精品在线观看 | 日本黄色大片免费看 | 日本久久免费 | 视频一区在线观看 | 欧美激情小视频 | 黄色在线免费观看 | 欧美一级大片在线观看 | a级片毛片 | 亚洲男人天堂2023 | 国产午夜手机精彩视频 | 91狠狠操 | 国产精品视频一二三 | 亚洲国产成人在线观看 | 欧美日韩黄色 | 国产精品xxxx | 亚洲欧美日韩久久精品 | 欧美福利片在线观看 | 欧美三级黄色大片 | 不卡av在线免费观看 | 成人欧美视频 | 日本黄色免费视频 | 日韩免费一区二区三区 | 欧美网站在线 | 91天堂在线 | 欧美国产中文字幕 | 成年人在线观看视频网站 | 中文在线观看视频 | 久久午夜鲁丝片 | 天天干视频在线观看 | 狠狠天天 | 韩国三级中文字幕hd久久精品 | 亚洲少妇一区 | 免费av福利 |