午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術文章
文章詳情頁

csv - python多列存取爬蟲網頁?

瀏覽:168日期:2022-08-30 10:07:16

問題描述

爬蟲抓取的資料想分列存取在tsv上,試過很多方式都沒有辦法成功存存取成兩列資訊。想存取為數字爬取的資料一列,底下類型在第二列csv - python多列存取爬蟲網頁?

from urllib.request import urlopenfrom bs4 import BeautifulSoupimport reimport csvhtml = urlopen('http://www.app12345.com/?area=tw&store=Apple%20Store')bs0bj = BeautifulSoup (html)def GPname(): GPnameList = bs0bj.find_all('dd',{'class':re.compile('ddappname')}) str = ’’ for name in GPnameList:str += name.get_text()str += ’n’print(name.get_text()) return strdef GPcompany(): GPcompanyname = bs0bj.find_all('dd',{'style':re.compile('color')}) str = ’’ for cpa in GPcompanyname:str += cpa.get_text()str += ’n’print(cpa.get_text()) return strwith open(’0217.tsv’,’w’,newline=’’,encoding=’utf-8’) as f: f.write(GPname()) f.write(GPcompany())f.close()

可能對zip不熟悉,存取下來之后變成一個字一格也找到這篇參考,但怎么嘗試都沒有辦法成功https://segmentfault.com/q/10...

問題解答

回答1:

寫csv文件簡單點 你的結構數據要成這樣 [['1. 東森新聞雲','新聞'],['2. 創世黎明(Dawn of world)','遊戲']]

from urllib import urlopenfrom bs4 import BeautifulSoupimport reimport csvhtml = urlopen('http://www.app12345.com/?area=tw&store=Apple%20Store')bs0bj = BeautifulSoup (html)GPnameList = [name.get_text() for name in bs0bj.find_all('dd',{'class':re.compile('ddappname')})]GPcompanyname = [cpa.get_text() for cpa in bs0bj.find_all('dd',{'style':re.compile('color')})]data = ’n’.join([’,’.join(d) for d in zip(GPnameList, GPcompanyname)])with open(’C:/Users/sa/Desktop/0217.csv’,’wb’) as f: f.write(data.encode(’utf-8’))

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 日本成人毛片 | 波多野结衣一区二区三区在线观看 | 欧美大片18| 中国字幕在线观看免费国语版 | 国产乱淫视频 | 蜜臀av一区二区三区有限公司 | 狠狠干免费视频 | 欧美一级特黄aaaaaa在线看片 | 国产一级特黄a高潮片 | 午夜黄视频 | 青青草国产 | 日韩精品一 | 天天干妹子 | 天天看天天干 | 黄色免费小视频 | 青娱乐在线视频免费观看 | 青青青久久久 | 一区二区三区四区在线观看视频 | 国产一区二区免费视频 | 91免费在线看片 | 欧美亚日韩 | 亚洲两性视频 | 黄色在线观看免费视频 | 日韩中文字幕在线观看视频 | 午夜影院入口 | 中文字幕免费视频观看 | 国产小视频在线观看 | 自拍 亚洲 欧美 | 日韩欧美国产中文字幕 | 秋霞中文字幕 | 美女网站视频色 | 免费视频久久 | 精品欧美一区二区三区 | 免费观看的av网站 | 超碰在线亚洲 | 天天操天天干天天插 | 国产精品一区二区三区四区 | 天天爽天天射 | 欧美一级爱爱 | 福利姬在线播放 | 亚洲乱亚洲乱妇 |