午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術文章
文章詳情頁

python - 爬蟲內容保存成文本文件 編碼問題

瀏覽:187日期:2022-06-29 09:03:36

問題描述

測試一個非常簡單的爬蟲,把一個非常簡約風格的網頁的文本內容保存到本地的電腦上。最后出現錯誤:

UnicodeEncodeErrorTraceback (most recent call last)<ipython-input-35-ead5570b2e15> in <module>() 7 filename=str(i)+’.txt’ 8 with open(filename,’w’)as f:----> 9 f.write(content) 10 print(’當前小說第{}章已經下載完成’.format(i)) 11 f.close()UnicodeEncodeError: ’gbk’ codec can’t encode character ’xa0’ in position 7: illegal multibyte sequence

代碼如下:

In [1]: import requestsIn [2]: from bs4 import BeautifulSoupIn [3]: re=requests.get(’http://www.qu.la/book/168/’)In [4]: html=re.textIn [5]: soup=BeautifulSoup(html,’html.parser’)In [6]: list=soup.find(id='list')In [9]: link_list=list.find_all(’a’)In [14]: mylist=[] ...: for link in link_list: ...: mylist.append(’http://www.qu.la’+link.get(’href’)) ...: ...:#遍歷每個鏈接,下載文本內容到 本地文本文件i=0 ...: for url in mylist1: ...: re1=requests.get(url) ...: html2=re1.text ...: soup=BeautifulSoup(html2,'html.parser') ...: content=soup.find(id='content').text.replace(’chaptererror();’, ’’) ...: filename=str(i)+’.txt’ ...: with open(filename,’w’)as f: ...: f.write(content) ...: print(’當前小說第{}章已經下載完成’.format(i)) ...: f.close() ...: i=i+1

問題解答

回答1:

f.write(content.encode(’utf-8’))

或者

import codecswith codecs.open(filename, ’w’, ’utf-8’) as f: f.write(content)

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美色图一区 | 天堂中文在线网 | 色婷婷一区 | av无限看| 色综合天天综合 | 涩涩视频在线 | 久久久精品在线观看 | 毛片的网址 | 久久综合中文 | 中文字幕一二三四区 | 欧美日韩高清免费 | 一级肉体全黄裸片 | 欧美伊人网 | 中文字幕在线免费 | 国产资源在线看 | 久久亚洲影视 | 五月天婷婷在线视频 | 亚洲一区二区三区免费在线观看 | 欧美日韩色综合 | 中文字幕手机在线观看 | www午夜| 久久久久中文字幕亚洲精品 | 亚洲综合免费视频 | 少妇高潮流白浆 | 免费在线观看黄色片 | 日韩精品在线一区二区三区 | 中文字幕在线中文 | 久久超碰精品 | 天天操一操| 先锋资源中文字幕 | 国产精品免费一区 | 国内自拍xxxx18| wwwxxx国产| 九九九网站 | 成人做爰www免费看视频网站 | 国产日韩欧美视频 | 日韩三级中文字幕 | 亚洲天堂成人 | 在线免费观看av网址 | 久久久久久久免费视频 | 四虎永久网站 |