今天項目有個需求,就是把txt文件轉為csv,txt之間是空格隔開,轉為csv時需要把空格轉換為逗號,網上找的一個版本,只需要三行代碼,特別犀利:
import numpy as npimport pandas as pddata_txt = np.loadtxt('datas_train.txt')data_txtDF = pd.DataFrame(data_txt)data_txtDF.to_csv('datas_train.csv',index=False)
上述的datas_train.txt只有不到100MB,560W行數據,三分鐘之內轉換完畢。
然后我換了一個5600W行共1.2G的txt文本,用上述代碼轉換,電腦直接卡死了。
原因在于上述代碼會把全部的txt加載進內存,然后再轉換,這就會造成電腦內存耗盡。
然后就想到了切割數據的辦法,具體實現如下:
import numpy as npimport pandas as pdtrain_data = pd.read_table('big_data.txt',iterator=True,header=None)while True: try: chunk = train_data.get_chunk(5600000) chunk.columns = ['user_id','spu_id','buy_or_not','date'] chunk.to_csv('big_data111.csv', mode='a',header=False,index = None) except Exception as e: break
這里我把數據分成了小塊,每塊數據有560W行,分11次加載就能全部加載完了,速度也很快,總共花了5分鐘左右。
注意,get_chunk()里面的參數表示文件的行數,而非字節數。
以上這篇python 快速把超大txt文件轉存為csv的實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持武林站長站。
新聞熱點
疑難解答