文章詳情頁
python - 用scrapy-splash爬取網(wǎng)站 為啥iframe下的內(nèi)容沒有被返回
瀏覽:230日期:2022-08-10 09:23:22
問題描述
用scrapy-splash爬取網(wǎng)站 為啥iframe下的內(nèi)容沒有被返回?
import scrapyfrom scrapy import Selectorclass Music163Spider(scrapy.Spider): name = 'music163' allowed_domains = ['music.163.com/#/discover/toplist'] start_urls = [’http://music.163.com/#/discover/toplist/’] def parse(self, response):print('parse:',response.text) def start_requests(self):for url in self.start_urls: yield scrapy.Request(url, self.parse, meta={’splash’: { ’endpoint’: ’render.html’, ’args’: {’wait’: 0.5, }} })
問題解答
回答1:你需要在parse中獲取iframe的url再次請求內(nèi)容。
相關(guān)文章:
1. android - 使用百度sdk調(diào)用SDKInitializer.initialize(this)時報錯?2. javascript - 最近用echarts做統(tǒng)計圖時遇到兩個問題!!3. 淺談Vue使用Cascader級聯(lián)選擇器數(shù)據(jù)回顯中的坑4. html5 - 用h5本地存儲是否安全?5. 基于Spring MVC Java的配置無法正常工作控制臺顯示無錯誤,但我的jsp頁面未顯示6. javascript - webpack-dev-server和webpack沖突嗎7. javascript - react熱加載的一段代碼8. android - 優(yōu)酷的安卓及蘋果app還在使用flash技術(shù)嗎?9. 微信公眾號在線生成二維碼帶參數(shù)怎么搞?10. myeclipse中修改了javaweb的web.xml文件,為什么有時候會自動重新部署生效,有時就不會自動呢?
排行榜

熱門標簽
網(wǎng)公網(wǎng)安備