午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術文章
文章詳情頁

Python Scrapy多頁數據爬取實現過程解析

瀏覽:281日期:2022-07-21 14:49:48

1.先指定通用模板

url = ’https://www.qiushibaike.com/text/page/%d/’#通用的url模板pageNum = 1

2.對parse方法遞歸處理

parse第一次調用表示的是用來解析第一頁對應頁面中的數據

對后面的頁碼的數據要進行手動發送

if self.pageNum <= 5: self.pageNum += 1 new_url = format(self.url%self.pageNum) #手動請求(get)的發送 yield scrapy.Request(new_url,callback=self.parse)

完整示例

class QiubaiSpider(scrapy.Spider): name = ’qiubai’ # allowed_domains = [’www.xxx.com’] start_urls = [’https://www.qiushibaike.com/text/’] url = ’https://www.qiushibaike.com/text/page/%d/’#通用的url模板 pageNum = 1 #parse第一次調用表示的是用來解析第一頁對應頁面中的段子內容和作者 def parse(self, response): div_list = response.xpath(’//*[@id='content-left']/div’) all_data = [] for div in div_list: author = div.xpath(’./div[1]/a[2]/h2/text()’).extract_first() content = div.xpath(’./a[1]/div/span//text()’).extract() content = ’’.join(content) # 將解析的數據存儲到item對象 item = QiubaiproItem() item[’author’] = author item[’content’] = content # 將item提交給管道 yield item # item一定是提交給了優先級最高的管道類 if self.pageNum <= 5: self.pageNum += 1 new_url = format(self.url%self.pageNum) #手動請求(get)的發送 yield scrapy.Request(new_url,callback=self.parse)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 91影音| 国产免费一区二区三区四在线播放 | 国产一区二区免费在线观看 | 亚洲国产区 | 天堂中文在线视频 | 欧美大片免费看 | 日韩网站在线 | 在线视频观看你懂的 | 91欧美日韩| 黄色av一区二区三区 | 亚欧视频在线 | 成人h片在线观看 | 国产精品亚洲欧美 | 韩国三级中文字幕hd久久精品 | 久久99国产综合精品免费 | 在线视频中文 | 国产又黄又爽 | 国产视频97 | 99这里只有精品 | 欧美激情专区 | 免费观看毛片 | www.夜夜 | 91亚洲国产成人久久精品网站 | 久久久久久久久亚洲 | 蜜桃av成人永久免费 | 亚洲小视频在线播放 | 综合狠狠 | 久久精品99久久久久久 | 你懂的免费在线观看 | 日韩av成人在线 | 久久久免费观看视频 | 91精品国产一区二区三区蜜臀 | 精品国产网| 生活一级片 | 懂色av蜜臀av粉嫩av分享吧 | 国产免费av网站 | 久操资源网 | 在线观看午夜视频 | 成人免费黄色 | 欧美系列第一页 | 夜夜春夜爽 |