python 快速把超大txt文件轉存為csv的實例
更新時間:2018年10月26日 15:11:45 作者:nudt_qxx
今天小編就為大家分享一篇python 快速把超大txt文件轉存為csv的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
今天項目有個需求,就是把txt文件轉為csv,txt之間是空格隔開,轉為csv時需要把空格轉換為逗號,網上找的一個版本,只需要三行代碼,特別犀利:
import numpy as np
import pandas as pd
data_txt = np.loadtxt('datas_train.txt')
data_txtDF = pd.DataFrame(data_txt)
data_txtDF.to_csv('datas_train.csv',index=False)
上述的datas_train.txt只有不到100MB,560W行數據,三分鐘之內轉換完畢。
然后我換了一個5600W行共1.2G的txt文本,用上述代碼轉換,電腦直接卡死了。
原因在于上述代碼會把全部的txt加載進內存,然后再轉換,這就會造成電腦內存耗盡。
然后就想到了切割數據的辦法,具體實現如下:
import numpy as np
import pandas as pd
train_data = pd.read_table('big_data.txt',iterator=True,header=None)
while True:
try:
chunk = train_data.get_chunk(5600000)
chunk.columns = ['user_id','spu_id','buy_or_not','date']
chunk.to_csv('big_data111.csv', mode='a',header=False,index = None)
except Exception as e:
break
這里我把數據分成了小塊,每塊數據有560W行,分11次加載就能全部加載完了,速度也很快,總共花了5分鐘左右。
注意,get_chunk()里面的參數表示文件的行數,而非字節(jié)數。
以上這篇python 快速把超大txt文件轉存為csv的實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

