午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術文章
文章詳情頁

csv - python多列存取爬蟲網頁?

瀏覽:159日期:2022-08-30 10:07:16

問題描述

爬蟲抓取的資料想分列存取在tsv上,試過很多方式都沒有辦法成功存存取成兩列資訊。想存取為數字爬取的資料一列,底下類型在第二列csv - python多列存取爬蟲網頁?

from urllib.request import urlopenfrom bs4 import BeautifulSoupimport reimport csvhtml = urlopen('http://www.app12345.com/?area=tw&store=Apple%20Store')bs0bj = BeautifulSoup (html)def GPname(): GPnameList = bs0bj.find_all('dd',{'class':re.compile('ddappname')}) str = ’’ for name in GPnameList:str += name.get_text()str += ’n’print(name.get_text()) return strdef GPcompany(): GPcompanyname = bs0bj.find_all('dd',{'style':re.compile('color')}) str = ’’ for cpa in GPcompanyname:str += cpa.get_text()str += ’n’print(cpa.get_text()) return strwith open(’0217.tsv’,’w’,newline=’’,encoding=’utf-8’) as f: f.write(GPname()) f.write(GPcompany())f.close()

可能對zip不熟悉,存取下來之后變成一個字一格也找到這篇參考,但怎么嘗試都沒有辦法成功https://segmentfault.com/q/10...

問題解答

回答1:

寫csv文件簡單點 你的結構數據要成這樣 [['1. 東森新聞雲','新聞'],['2. 創世黎明(Dawn of world)','遊戲']]

from urllib import urlopenfrom bs4 import BeautifulSoupimport reimport csvhtml = urlopen('http://www.app12345.com/?area=tw&store=Apple%20Store')bs0bj = BeautifulSoup (html)GPnameList = [name.get_text() for name in bs0bj.find_all('dd',{'class':re.compile('ddappname')})]GPcompanyname = [cpa.get_text() for cpa in bs0bj.find_all('dd',{'style':re.compile('color')})]data = ’n’.join([’,’.join(d) for d in zip(GPnameList, GPcompanyname)])with open(’C:/Users/sa/Desktop/0217.csv’,’wb’) as f: f.write(data.encode(’utf-8’))

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲一本之道 | 青草视频在线免费观看 | 日韩久久久久久久久 | 成人日韩视频 | 天天艹| 欧美日韩中文字幕在线观看 | 天天插天天狠天天透 | 日本美女黄色一级片 | 国产成人高清 | 精品在线视频免费观看 | 长泽梓av| 婷婷久久综合 | 一区二区蜜桃 | 国产激情视频在线观看 | 中文字幕专区 | 极品少妇av| 国产剧情自拍 | 日韩亚洲欧美在线观看 | 国产破处av | 美日韩视频 | 欧美激情视频一区二区三区 | 香港三级网站 | 天天干国产 | 久久77| 亚洲成人精品在线播放 | 国产亚洲一区二区三区在线观看 | 免费在线毛片 | 91喷潮 | 国产精品视频第一页 | 少妇99 | 欧美黄在线 | 日韩不卡一区二区 | 老司机午夜精品视频 | 成人小视频在线免费观看 | 中文字幕在线观看1 | 黄色片在线免费观看 | 亚洲综合一区二区 | 在线97 | 黄色片免费播放 | 色综合天天综合网天天狠天天 | 美女啪啪免费视频 |