Python讀大數據txt
如果直接對大文件對象調用 read() 方法,會導致不可預測的內存占用。好的方法是利用固定長度的緩沖區(qū)來不斷讀取文件內容。即通過yield。
在用Python讀一個兩個多G的txt文本時,天真的直接用readlines方法,結果一運行內存就崩了。
還好同事點撥了下,用yield方法,測試了下果然毫無壓力。咎其原因,原來是readlines是把文本內容全部放于內存中,而yield則是類似于生成器。
代碼如下:
def open_txt(file_name): with open(file_name,'r+') as f: while True: line = f.readline() if not line: return yield line.strip()
調用實例:
for text in open_txt('aa.txt'): print text
例二:
目標 txt 文件大概有6G,想取出前面1000條數據保存于一個新的 txt 文件中做余下的操作,雖然不知道這樣做有沒有必要但還是先小數據量測試一下吧。參考這個帖子:我想把一個list列表保存到一個Txt文檔,該怎么保存 ,自己寫了一個簡單的小程序。
====================================================
import datetime import pickle start = datetime.datetime.now() print "start--%s" % (start) fileHandle = open ( 'train.txt' ) file2 = open('s_train.txt','w') i = 1 while ( i < 10000 ): a = fileHandle.readline() file2.write(''.join(a)) i = i + 1 fileHandle.close() file2.close() print "done--%s" % ( datetime.datetime.now() - start) if __name__ == '__main__': pass
====================================================
pickle 這個庫大家說的很多,官網看看,后面可以好好學習一下。
相關文章
python測試開發(fā)django之使用supervisord?后臺啟動celery?服務(worker/beat)
Supervisor是用Python開發(fā)的一個client/server服務,是Linux/Unix系統(tǒng)下的一個進程管理工具,不支持Windows系統(tǒng),這篇文章主要介紹了python測試開發(fā)django之使用supervisord?后臺啟動celery?服務(worker/beat),需要的朋友可以參考下2022-07-07