文章詳情頁
python - Scrapy如何得到原始的start_url
瀏覽:241日期:2022-06-27 15:45:21
問題描述
Scrapy爬蟲時,由于重定向或是其他原因,會導致原始的start_url發(fā)生改變,怎樣才能得到原始的start_url?
def start_requests(self): start_url = ’your_scrapy_start_url’ yield Request(start_url, self.parse) def parse(self, response): item = YourItem() item[’start_url’] = 原始請求的start_url yield item
問題解答
回答1:參考文章:Scrapy爬蟲常見問題總結
利用Request中的meta參數(shù)傳遞信息
def start_requests(self): start_url = ’your_scrapy_start_url’ yield Request(start_url, self.parse, meta={’start_url’:start_url}) def parse(self, response): item = YourItem() item[’start_url’] = response.meta[’start_url’] yield item
相關文章:
1. html5 - datatables 加載不出來數(shù)據(jù)。2. docker 下面創(chuàng)建的IMAGE 他們的 ID 一樣?這個是怎么回事????3. 測試自動化html元素選擇器元素ID或DataAttribute [關閉]4. html5和Flash對抗是什么情況?5. node.js - mongodb查找子對象的名稱為某個值的對象的方法6. 運行python程序時出現(xiàn)“應用程序發(fā)生異常”的內(nèi)存錯誤?7. 利用IPMI遠程安裝centos報錯!8. javascript - QQ第三方登錄的問題9. java - Spring boot 讀取 放在 jar 包外的,log4j 配置文件,系統(tǒng)有創(chuàng)建日志文件,不寫入日志信息。10. spring-mvc - spring-session-redis HttpSessionListener失效
排行榜

熱門標簽
網(wǎng)公網(wǎng)安備