Python Vaex實現(xiàn)快速分析100G大數(shù)據(jù)量
pandas處理大數(shù)據(jù)的限制
現(xiàn)在的數(shù)據(jù)科學比賽提供的數(shù)據(jù)量越來越大,動不動幾十個G,甚至上百G,這就要考驗機器性能和數(shù)據(jù)處理能力。
Python中的pandas是大家常用的數(shù)據(jù)處理工具,能應(yīng)付較大數(shù)據(jù)集(千萬行級別),但當數(shù)據(jù)量達到十億百億行級別,pandas處理起來就有點力不從心了,可以說非常的慢。
這里面會有電腦內(nèi)存等性能的因素,但pandas本身的數(shù)據(jù)處理機制(依賴內(nèi)存)也限制了它處理大數(shù)據(jù)的能力。
當然pandas可以通過chunk分批讀取數(shù)據(jù),但是這樣的劣勢在于數(shù)據(jù)處理較復雜,而且每一步分析都會消耗內(nèi)存和時間。
下面用pandas讀取3.7個G的數(shù)據(jù)集(hdf5格式),該數(shù)據(jù)集共有4列、1億行,并且計算第一行的平均值。我的電腦CPU是i7-8550U,內(nèi)存8G,看看這個加載和計算過程需要花費多少時間。
數(shù)據(jù)集:
使用pandas讀取并計算:
看上面的過程,加載數(shù)據(jù)用了15秒,平均值計算用了3.5秒,總共18.5秒。
這里用的是hdf5文件,hdf5是一種文件存儲格式,相比較csv更適合存儲大數(shù)據(jù)量,壓縮程度高,而且讀取、寫入也更快。
換上今天的主角vaex,讀取同樣的數(shù)據(jù),做同樣的平均值計算,需要多少時間呢?
使用vaex讀取并計算:
文件讀取用了9ms,可以忽略不計,平均值計算用了1s,總共1s。
同樣是讀取1億行的hdfs數(shù)據(jù)集,為什么pandas需要十幾秒,而vaex耗費時間接近于0呢?
這里主要是因為pandas把數(shù)據(jù)讀取到了內(nèi)存中,然后用于處理和計算。而vaex只會對數(shù)據(jù)進行內(nèi)存映射,而不是真的讀取數(shù)據(jù)到內(nèi)存中,這個和spark的懶加載是一樣的,在使用的時候 才會去加載,聲明的時候不加載。
所以說不管加載多大的數(shù)據(jù),10GB、100GB...對vaex來說都是瞬間搞定。美中不足的是,vaex的懶加載只支持HDF5, Apache Arrow,Parquet, FITS等文件,不支持csv等文本文件,因為文本文件沒辦法進行內(nèi)存映射。
可能有的小伙伴不太理解內(nèi)存映射,下面放一段解釋,具體要弄清楚還得自行摸索:
內(nèi)存映射是指硬盤上文件的位置與進程邏輯地址空間中一塊大小相同的區(qū)域之間的一一對應(yīng)。這種對應(yīng)關(guān)系純屬是邏輯上的概念,物理上是不存在的,原因是進程的邏輯地址空間本身就是不存在的。在內(nèi)存映射的過程中,并沒有實際的數(shù)據(jù)拷貝,文件沒有被載入內(nèi)存,只是邏輯上被放入了內(nèi)存,具體到代碼,就是建立并初始化了相關(guān)的數(shù)據(jù)結(jié)構(gòu)(struct address_space)。
什么是vaex
前面對比了vaex和pandas處理大數(shù)據(jù)的速度,vaex優(yōu)勢明顯。雖然能力出眾,不比pandas家喻戶曉,vaex還是個剛出圈的新人。
vaex同樣是基于python的數(shù)據(jù)處理第三方庫,使用pip
就可以安裝。
官網(wǎng)對vaex的介紹可以總結(jié)為三點:
- vaex是一個用處理、展示數(shù)據(jù)的數(shù)據(jù)表工具,類似pandas;
- vaex采取內(nèi)存映射、惰性計算,不占用內(nèi)存,適合處理大數(shù)據(jù);
- vaex可以在百億級數(shù)據(jù)集上進行秒級的統(tǒng)計分析和可視化展示;
vaex的優(yōu)勢在于:
- 性能:處理海量數(shù)據(jù),109 行/秒;
- 惰性:快速計算,不占用內(nèi)存;
- 零內(nèi)存復制:在進行過濾/轉(zhuǎn)換/計算時,不復制內(nèi)存,在需要時進行流式傳輸;
- 可視化:內(nèi)含可視化組件;
- API:類似pandas,擁有豐富的數(shù)據(jù)處理和計算函數(shù);
- 可交互:配合Jupyter notebook使用,靈活的交互可視化;
安裝vaex
使用pip或者conda進行安裝:
讀取數(shù)據(jù)
vaex支持讀取hdf5、csv、parquet等文件,使用read方法。hdf5可以惰性讀取,而csv只能讀到內(nèi)存中。
vaex數(shù)據(jù)讀取函數(shù):
數(shù)據(jù)處理
有時候我們需要對數(shù)據(jù)進行各種各樣的轉(zhuǎn)換、篩選、計算等,pandas的每一步處理都會消耗內(nèi)存,而且時間成本高。除非說使用鏈式處理,但那樣過程就很不清晰。
vaex則全過程都是零內(nèi)存。因為它的處理過程僅僅產(chǎn)生expression(表達式),表達式是邏輯表示,不會執(zhí)行,只有到了最后的生成結(jié)果階段才會執(zhí)行。而且整個過程數(shù)據(jù)是流式傳輸,不會產(chǎn)生內(nèi)存積壓。
可以看到上面有篩選和計算兩個過程,都沒有復制內(nèi)存,這里采用了延遲計算,也就是惰性機制。如果每個過程都真實計算,消耗內(nèi)存不說,單是時間成本就很大。
vaex的統(tǒng)計計算函數(shù):
可視化展示
vaex還可以進行快速可視化展示,即便是上百億的數(shù)據(jù)集,依然能秒出圖。
vaex可視化函數(shù):
結(jié)論
vaex有點類似spark和pandas的結(jié)合體,數(shù)據(jù)量越大越能體現(xiàn)它的優(yōu)勢。只要你的硬盤能裝下多大數(shù)據(jù),它就能快速分析這些數(shù)據(jù)。
vaex還在快速發(fā)展中,集成了越來越多pandas的功能,它在github上的star數(shù)是5k,成長潛力巨大。
附:hdf5數(shù)據(jù)集生成代碼(4列1億行數(shù)據(jù))
import pandas as pd import vaex df = pd.DataFrame(np.random.rand(100000000,4),columns=['col_1','col_2','col_3','col_4']) df.to_csv('example.csv',index=False) vaex.read('example.csv',convert='example1.hdf5')
注意這里不要用pandas直接生成hdf5,其格式會與vaex不兼容。
到此這篇關(guān)于Python Vaex實現(xiàn)快速分析100G大數(shù)據(jù)量的文章就介紹到這了,更多相關(guān)Python Vaex分析100G大數(shù)據(jù)量內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python?OpenCV實現(xiàn)圖像特征匹配示例詳解
這篇文章主要為大家介紹了python?OpenCV實現(xiàn)圖像特征匹配示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2023-04-04python實現(xiàn)list由于numpy array的轉(zhuǎn)換
下面小編就為大家分享一篇python實現(xiàn)list由于numpy array的轉(zhuǎn)換方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-04-04