文章詳情頁
python - 基于scrapy-redis的分布式爬蟲運(yùn)行的時候不能正常運(yùn)行 遇到的問題如下截圖所示
瀏覽:208日期:2022-08-03 11:20:00
問題描述

爬蟲運(yùn)行時一直是這樣的每一分鐘出現(xiàn)一條這樣的信息,無限循環(huán)。不能爬取下來數(shù)據(jù)
這是redis服務(wù)端的顯示
這樣是什么問題,望有高手可以為我解惑,謝謝。
問題解答
回答1:使用scrapy_redis,你要去投放url讓spider去爬取,你投放了嗎?比如
redis-cli lpush myspider:start_urls http://google.com
上一條:python3.x - python中的虛擬環(huán)境怎樣設(shè)置一直處于激活狀態(tài)下一條:python - scrapy-redis爬蟲運(yùn)行是連接redis數(shù)據(jù)庫連接錯誤
相關(guān)文章:
1. javascript - QQ第三方登錄的問題2. javascript - 使用百度文本編輯器ueditor不顯示樣式問題3. android - 使用百度sdk調(diào)用SDKInitializer.initialize(this)時報錯?4. javascript - 最近用echarts做統(tǒng)計圖時遇到兩個問題??!5. android - 優(yōu)酷的安卓及蘋果app還在使用flash技術(shù)嗎?6. javascript - webpack-dev-server和webpack沖突嗎7. 微信公眾號在線生成二維碼帶參數(shù)怎么搞?8. 百度地圖api - Android 百度地圖點(diǎn)擊線路圖的問題?9. html5 - 用h5本地存儲是否安全?10. javascript - react熱加載的一段代碼
排行榜

熱門標(biāo)簽
網(wǎng)公網(wǎng)安備