午夜剧场伦理_日本一道高清_国产又黄又硬_91黄色网战_女同久久另类69精品国产_妹妹的朋友在线

您的位置:首頁技術文章
文章詳情頁

MySQL單表千萬級數(shù)據(jù)處理的思路分享

瀏覽:60日期:2023-10-02 08:24:13
目錄項目背景改進思路觀察數(shù)據(jù)特征多進程處理思路總結(jié)數(shù)據(jù)處理技巧項目背景

在處理過程中,今天上午需要更新A字段,下午爬蟲組完成了規(guī)格書或圖片的爬取又需要更新圖片和規(guī)格書字段,由于單表千萬級深度翻頁會導致處理速度越來越慢。

select a,b,c from db.tb limit 10000 offset 9000000

但是時間是有限的,是否有更好的方法去解決這種問題呢?

改進思路

是否有可以不需要深度翻頁也可以進行數(shù)據(jù)更新的憑據(jù)?是的,利用自增id列

觀察數(shù)據(jù)特征

此單表有自增id列且為主鍵,根據(jù)索引列查詢數(shù)據(jù)和更新數(shù)據(jù)是最理想的途徑。

select a,b, c from db.tb where id=9999999;update db.tb set a=x where id=9999999;多進程處理

每個進程處理一定id范圍內(nèi)的數(shù)據(jù),這樣既避免的深度翻頁又可以同時多進程處理數(shù)據(jù)。提高數(shù)據(jù)查詢速度的同時也提高了數(shù)據(jù)處理速度。下面是我編寫的任務分配函數(shù),供參考:

def mission_handler(all_missions, worker_mission_size): ''' 根據(jù)總?cè)蝿諗?shù)和每個worker的任務數(shù)計算出任務列表, 任務列表元素為(任務開始id, 任務結(jié)束id)。 例: 總?cè)蝿諗?shù)100個,每個worker的任務數(shù)40, 那么任務列表為:[(1, 40), (41, 80), (81, 100)] :param all_missions: 總?cè)蝿諗?shù) :param worker_mission_size: 每個worker的最大任務數(shù) :return: [(start_id, end_id), (start_id, end_id), ...] ''' worker_mission_ids = [] current_id = 0 while current_id <= all_missions:start_id = all_missions if current_id + 1 >= all_missions else current_id + 1end_id = all_missions if current_id + worker_mission_size >= all_missions else current_id + worker_mission_sizeif start_id == end_id: if worker_mission_ids[-1][1] == start_id:breakworker_mission_ids.append((start_id, end_id))current_id += worker_mission_size return worker_mission_ids

假設單表id最大值為100, 然后我們希望每個進程處理20個id,那么任務列表將為:

>>> mission_handler(100, 40)[(1, 40), (41, 80), (81, 100)]

那么,進程1將只需要處理id between 1 to 40的數(shù)據(jù);進程2將只需要處理id between 41 to 80的數(shù)據(jù);進程3將只需要處理id between 81 to 100的數(shù)據(jù)。

from concurrent.futures import ProcessPoolExecutordef main(): # 自增id最大值 max_id = 30000000 # 單worker處理數(shù)據(jù)量 worker_mission_size = 1000000 # 使用多進程進行處理 missions = mission_handler(max_id, worker_mission_size) workers = [] executor = ProcessPoolExecutor() for idx, mission in enumerate(missions):start_id, end_id = missionworkers.append(executor.submit(data_handler, start_id, end_id, idx))def data_handler(start_id, end_id, worker_id): pass思路總結(jié) 避免深度翻頁進而使用自增id進行查詢數(shù)據(jù)和數(shù)據(jù) 使用多進程處理數(shù)據(jù) 數(shù)據(jù)處理技巧

記錄處理成功與處理失敗的數(shù)據(jù)id,以便后續(xù)跟進處理

# 用另外一張表記錄處理狀態(tài)insert into db.tb_handle_status(row_id, success) values (999, 0);

循環(huán)體內(nèi)進行異常捕獲,避免程序異常退出

def data_handler(start_id, end_id, worker_id): # 數(shù)據(jù)連接 conn, cursor = mysql() current_id = start_idtry: while current_id <= end_id:try: # TODO 數(shù)據(jù)處理代碼 passexcept Exception as e: # TODO 記錄處理結(jié)果 # 數(shù)據(jù)移動到下一條 current_id += 1 continueelse: # 無異常,繼續(xù)處理下一條數(shù)據(jù) current_id += 1except Exception as e: return ’worker_id({}): result({})’.format(worker_id, False)finally: # 數(shù)據(jù)庫資源釋放 cursor.close() conn.close()return ’worker_id({}): result({})’.format(worker_id, True)

更新數(shù)據(jù)庫數(shù)據(jù)盡量使用批量提交

sql = '''update db.tb set a=%s, b=%s where id=%s'''values = [ (’a_value’, ’b_value’, 9999), (’a_value’, ’b_value’, 9998), ... ]# 批量提交,減少網(wǎng)絡io以及鎖獲取頻率cursor.executemany(sql, values)

以上就是MySQL單表千萬級數(shù)據(jù)處理的思路分享的詳細內(nèi)容,更多關于MySQL單表千萬級數(shù)據(jù)處理的資料請關注好吧啦網(wǎng)其它相關文章!

相關文章:
主站蜘蛛池模板: 国产久操视频 | 久久手机视频 | 国产成人麻豆精品午夜在线 | 久久综合网址 | 精品天堂 | 六月伊人 | 久久视频免费观看 | 国产区在线观看视频 | 精品国产乱码久久久久久1区2区 | 日本天堂在线 | 日韩免费观看视频 | 久久久精品久久久久 | 中文字幕在线免费视频 | 色婷婷九月 | 在线激情网 | 午夜三级福利 | 黄色欧美网站 | 日韩综合在线视频 | 国产在线不卡 | 精品日韩中文字幕 | 国产一区二区在线免费 | 四虎福利 | 精品国产精品国产偷麻豆 | 91在线视频免费看 | 国产超级av | 中文字幕的 | 四虎免费观看 | 伊人春色在线观看 | 成人xxx | 九九视频在线 | 亚洲成人a∨ | 日本午夜精品 | 都市激情亚洲综合 | 偷拍亚洲综合 | 欧美一区二区三区视频在线 | 色老汉av一区二区三区 | 牛人盗摄一区二区三区视频 | 中文字幕1区2区3区 毛片在线网站 | 久久久成人精品视频 | 黄色成人免费视频 | 日韩中文在线字幕 |