解決python存數(shù)據(jù)庫速度太慢的問題
問題
在項(xiàng)目中遇到一個問題,需要從文本中讀取三萬條數(shù)據(jù)寫入mysql數(shù)據(jù)庫,文件中為用@分割的sql語句,但是在讀取的過程中發(fā)現(xiàn)速度過慢,三萬八千條數(shù)據(jù)需要220秒,問題代碼片段如下:
def read_to_mysql(filecata, targetDir): ''' 用來寫入數(shù)據(jù)庫,寫入后會剪貼掉文件 filecata 為保存有文件地址的list,已去掉尾部的空格 :param filecata: 文件目錄 :param targetDir: 要復(fù)制的目標(biāo)目錄 :return: ''' root_dir = os.path.abspath(os.path.join(os.getcwd(), "./")) config = configparser.ConfigParser() config.read(root_dir + "/config.ini") __host = config.get("DatabaseOfWRT", "host") __database_name = config.get("DatabaseOfWRT", "database") __user_name = config.get("DatabaseOfWRT", "username") __user_passwaord = config.get("DatabaseOfWRT", "password") __charset = config.get("DatabaseOfWRT", "charset") conn = pymysql.connect( host=__host, user=__user_name, password=__user_passwaord, database=__database_name, charset=__charset ) cursor = conn.cursor() with open(filecata, "r", encoding='utf-8') as f: data = f.read() # 讀取文件 data_list = data.split('@') del data_list[-1] starttime = int(time.time()) for data_str in data_list: data_str = str(data_str) sql = data_str + ';' cursor.execute(sql) conn.commit() print(flag) copy_del_file(filecata, targetDir) # 用來剪切的函數(shù),此處不影響,因而省略 cursor.close() conn.close()
解決方案
經(jīng)測試發(fā)現(xiàn),影響速度的主要原因是commit(),因?yàn)闆]過幾秒提交一次即可,但是因?yàn)樘峤坏淖址L度有限制,所以要設(shè)置一個合理的時間讀取,代碼修改如下:
def read_to_mysql(filecata, targetDir): ''' 用來寫入數(shù)據(jù)庫,寫入后會剪貼掉文件 filecata 為保存有文件地址的list,已去掉尾部的空格 :param filecata: :param targetDir: 要復(fù)制的目標(biāo)目錄 :return: ''' root_dir = os.path.abspath(os.path.join(os.getcwd(), "./")) config = configparser.ConfigParser() config.read(root_dir + "/config.ini") __host = config.get("DatabaseOfWRT", "host") __database_name = config.get("DatabaseOfWRT", "database") __user_name = config.get("DatabaseOfWRT", "username") __user_passwaord = config.get("DatabaseOfWRT", "password") __charset = config.get("DatabaseOfWRT", "charset") conn = pymysql.connect( host=__host, user=__user_name, password=__user_passwaord, database=__database_name, charset=__charset ) cursor = conn.cursor() with open(filecata, "r", encoding='utf-8') as f: data = f.read() # 讀取文件 data_list = data.split('@') del data_list[-1] starttime = int(time.time()) for data_str in data_list: endtime = int(time.time()) data_str = str(data_str) sql = data_str + ';' cursor.execute(sql) if endtime - starttime ==10: # 每過十秒提交一次 starttime = int(time.time()) conn.commit() conn.commit() copy_del_file(filecata, targetDir) cursor.close() conn.close() return flag
此時寫入三萬八千條數(shù)據(jù)需要9秒
補(bǔ)充:python 連數(shù)據(jù)庫cursur.fetchall ()速度慢的解決方案
解決游標(biāo)遍歷慢的方法:
一行一行去遍歷,而不是一下全部讀取出來
將cursur.fetchall()更改為for i in cursur:
補(bǔ)充:python 讀取文件時速度的問題
"""舉例 讀取文件""" # 第一種方式 with open('test.txt', 'r', encoding='utf-8') as f: info = f.readlines() for line in info: pass # 第二種方式 with open('test.txt', 'r', encoding='utf-8') as f: for line in f: pass
對于以上兩種方式讀取文件,各自有各自的用途,當(dāng)用兩種方式都可以時,第二種方式的效率是第一種的幾個量級, readlines()將文件內(nèi)容讀取到內(nèi)存的list中,操作雖然方便,但是消耗內(nèi)存,運(yùn)行效率慢。
原生的f是將文件內(nèi)容讀到生成器中, 當(dāng)需要操作時,從生成器中循環(huán)出來,速度很快,操作大文件時建議用第二種方式!
以上為個人經(jīng)驗(yàn),希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
相關(guān)文章
numpy展平數(shù)組ndarray.flatten()詳解
這篇文章主要介紹了numpy展平數(shù)組ndarray.flatten()詳解,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2023-06-06利用python將?Matplotlib?可視化插入到?Excel表格中
這篇文章主要介紹了利用python將?Matplotlib?可視化?插入到?Excel?表格中,通過使用xlwings模塊來控制Excel插入圖表,具體詳細(xì)需要的朋友可以參考下面文章內(nèi)容2022-06-06python 通過郵件控制實(shí)現(xiàn)遠(yuǎn)程控制電腦操作
這篇文章主要介紹了python 通過郵件控制電腦實(shí)現(xiàn)遠(yuǎn)程控制操作,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-03-03python matplotlib工具欄源碼探析三之添加、刪除自定義工具項(xiàng)的案例詳解
這篇文章主要介紹了python matplotlib工具欄源碼探析三之添加、刪除自定義工具項(xiàng)的案例詳解,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2021-02-02