網(wǎng)頁爬蟲 - python的多進程怎么配合requests
問題描述
這是單進程順序執(zhí)行的代碼:
import requests,time,os,randomdef img_down(url): with open('{}'.format(str(random.random())+os.path.basename(url)),'wb') as fob:fob.write(requests.get(url).content)urllist=[]with open('urllist.txt','r+') as u: for a in u.readlines():urllist.append(a.strip())s=time.clock()for i in range(len(urllist)): img_down(urllist[i])e=time.clock()print ('time: %d' % (e-s))
這是多進程的代碼:
from multiprocessing import Poolimport requests,os,time,randomdef img_down(url): with open('{}'.format(str(random.random())+os.path.basename(url)),'wb') as fob:fob.write(requests.get(url).content)if __name__=='__main__': urllist=[] with open('urllist.txt','r+') as urlfob:for s in urlfob.readlines(): urllist.append(s.strip()) s=time.clock() p=Pool() for i in range(len(urllist)):p.apply_async(img_down,args=(urllist[i],)) p.close() p.join() e=time.clock()print ('time: {}'.format(e-s))
但是單進程和多進程花費的時間幾乎沒區(qū)別,問題大概是requests阻塞IO,請問理解的對不對,代碼該怎么修改達到多進程的目的?謝謝!
問題解答
回答1:寫文件的瓶頸在磁盤IO,并不在CPU,你并行并沒有多大作用,你可以試試不要寫入文件再對比時間
回答2:Pool 不帶參數(shù)的話 是采用 os.cpu_count() or 1如果是單核CPU,或者采集不到數(shù)量 就只有1個進程而已。
應該是這個原因。
相關文章:
1. docker 17.03 怎么配置 registry mirror ?2. 前端 - @media query 使用出現(xiàn)的問題?3. docker 下面創(chuàng)建的IMAGE 他們的 ID 一樣?這個是怎么回事????4. node.js - mongodb查找子對象的名稱為某個值的對象的方法5. 運行python程序時出現(xiàn)“應用程序發(fā)生異常”的內(nèi)存錯誤?6. html5 - datatables 加載不出來數(shù)據(jù)。7. 測試自動化html元素選擇器元素ID或DataAttribute [關閉]8. javascript - QQ第三方登錄的問題9. 利用IPMI遠程安裝centos報錯!10. spring-mvc - spring-session-redis HttpSessionListener失效

網(wǎng)公網(wǎng)安備