午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術文章
文章詳情頁

關于python list 寫進txt中的問題

瀏覽:173日期:2022-09-01 18:50:29

問題描述

各位大神好,我爬取騰訊新聞的新聞標題加入到一個列表當中,在用file.write()寫進 新聞.txt的時候,為啥老是寫入列表的最后一個呢??

from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)for n in news_titles: title = n.get_text() link = n.get('href') file = open(’/Users/sufan/Desktop/新聞.txt’, ’w’) b = [] b.append(title + ’鏈接’ + link) file.write(str(b))

關于python list 寫進txt中的問題這個是我爬取出來的東西(print(b)的結果)

關于python list 寫進txt中的問題這個是寫入txt中的內容

問題解答

回答1:

文件操作放循環里了?這樣每次操作每次打開文件每次寫入覆蓋…

# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding(’utf-8’)from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)file = open(’新聞.txt’, ’a’)for n in news_titles: title = n.get_text() link = n.get('href') b = str(title) + ’ 鏈接: ’ + link +'n' file.write(str(b))file.close()回答2:

for n in news_titles: title = n.get_text() link = n.get('href') b = [] b.append(title + ’鏈接’ + link) with open(’/Users/sufan/Desktop/新聞.txt’, ’w’) as file: file.write(str(b))回答3:

寫的動作放錯地方了

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美视频亚洲视频 | 高清国产一区二区 | 五月天婷婷激情 | 一起操在线 | 操国产美女 | 精品一区二区三区在线观看视频 | 欧美专区第一页 | www.色日本| 神马久久精品综合 | 国产午夜精品一区二区三区 | 国模av| 国产1页| 免费羞羞网站 | 精品福利一区二区 | 久久伊人国产 | 黄色大片黄色大片 | 亚洲欧美国产精品专区久久 | 欧美三级免费看 | 日日cao | 天堂网视频在线 | 国产精品视频第一页 | 91久久国产综合 | 中文字幕黄色片 | 性欧美又大又长又硬 | 国产一级片免费 | av网站在线免费观看 | 国产乱码一区二区三区 | 午夜精品福利在线观看 | 亚洲女同一区二区 | 黄色片aaa | 精品久久影院 | 理论在线播放 | 午夜精品福利视频 | 欧美色图在线视频 | 国产精品毛片视频 | 岛国av噜噜噜久久久狠狠av | 婷婷伊人网 | 日韩在线视频免费看 | 欧美黄色小视频 | 99热在线看 | 国产日韩在线观看一区 |