pandas 使用merge實現(xiàn)百倍加速的操作
對于非連續(xù)數(shù)據(jù)集,數(shù)據(jù)可視化時候需要每七天一個采樣點。要求是選擇此前最新的數(shù)據(jù)作為當日的數(shù)據(jù)展示,譬如今天是2019-06-18,而數(shù)據(jù)集里只有2019-06-15,那就用2019-06-15的數(shù)據(jù)作為2019-06-18的數(shù)據(jù)去描點。
每七天一個采樣點,會使得每天展示所選的數(shù)據(jù)都會有所不同。當時間往后推移一天,日期為2019-06-19,那么最新數(shù)據(jù)點從2019-06-19開始,第二個就是2019-06-12。這里就需要一個算法來快速的根據(jù)當前日期去選出(填充)一系列數(shù)據(jù)供數(shù)據(jù)可視化之用。
一個非常直接的實現(xiàn)方法:
先生成一串目標時間序列,從某個開始日到今天為止,每七天一個日期。
把這些日期map到數(shù)據(jù)集的日期, Eg. {“2019-06-18”:“2019-06-15”…} 。
把map到的數(shù)據(jù)抽出來用pd.concat接起來。
代碼如下:
target_dates = pd.date_range(end=now, periods=100, freq="7D") full_dates = pd.date_range(start, now).tolist() org_dates = df.date.tolist() last_date = None for d in full_dates: if d in org_dates: date_map[d] = d last_date = d elif last_date is not None: date_map[d] = last_date else: continue new_df = pd.DataFrame() for td in target_dates: new_df = pd.concat([new_df, df[df["date"]==date_map[td]])
這樣的一個算法處理一個接近千萬量級的數(shù)據(jù)集上大概需要十多分鐘。仔細檢查發(fā)現(xiàn),每一次合并的dataframe數(shù)據(jù)量并不小,而且總的操作次數(shù)達到上萬次。
所以就想如何避免高頻次地使用pd.concat去合并dataframe。
最終想到了一個巧妙的方法,只需要修改一下前面的第三步,把日期的map轉(zhuǎn)換成dataframe,然后和原始數(shù)據(jù)集做merge操作就可以了。
target_dates = pd.date_range(end=now, periods=100, freq="7D") full_dates = pd.date_range(start, now).tolist() org_dates = df.date.tolist() last_date = None for d in full_dates: if d in org_dates: date_map[d] = d last_date = d elif last_date is not None: date_map[d] = last_date else: continue #### main change is from here ##### date_map_list = [] for td in target_dates: date_map_list.append({"target_date":td, "org_date":date_map[td]}) date_map_df = pd.DataFrame(date_map_list) new_df = date_map_df.merge(df, left_on=["org_date"], right_on=["date"], how="inner")
改進之后,所有的循環(huán)操作都在一個微數(shù)量級上,最后一個merge操作得到了所有有用的數(shù)據(jù),運行時間在5秒左右,大大提升了性能。
補充:Pandas DataFrames 中 merge 合并的坑點(出現(xiàn)重復連接鍵)
在我的實際開發(fā)中遇到的坑點,查閱了相關(guān)文檔 總結(jié)一下
left = pd.DataFrame({'A': [1, 2], 'B': [2, 2]})
right = pd.DataFrame({'A': [4, 5, 6], 'B': [2, 2, 2]})
result = pd.merge(left, right, on='B', how='outer')
警告:在重復鍵上加入/合并可能導致返回的幀是行維度的乘法,這可能導致內(nèi)存溢出。在加入大型DataFrame之前,重復值。
檢查重復鍵
如果知道右側(cè)的重復項DataFrame但希望確保左側(cè)DataFrame中沒有重復項,則可以使用該 validate='one_to_many'參數(shù),這不會引發(fā)異常。
pd.merge(left, right, on='B', how='outer', validate="one_to_many") # 打印的結(jié)果: A_x B A_y 0 1 1 NaN 1 2 2 4.0 2 2 2 5.0 3 2 2 6.0
參數(shù):
validate : str, optional If specified, checks if merge is of specified type. “one_to_one” or “1:1”: check if merge keys are unique in both left and right datasets. “one_to_many” or “1:m”: check if merge keys are unique in left dataset. “many_to_one” or “m:1”: check if merge keys are unique in right dataset. “many_to_many” or “m:m”: allowed, but does not result in checks.
官方文檔連接:
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
- Python基礎(chǔ)之pandas數(shù)據(jù)合并
- python-pandas創(chuàng)建Series數(shù)據(jù)類型的操作
- Python數(shù)據(jù)分析之pandas函數(shù)詳解
- python基于Pandas讀寫MySQL數(shù)據(jù)庫
- pandas讀取excel時獲取讀取進度的實現(xiàn)
- pandas中.loc和.iloc以及.at和.iat的區(qū)別說明
- 淺談Pandas dataframe數(shù)據(jù)處理方法的速度比較
- 解決使用pandas聚類時的小坑
- 詳細介紹在pandas中創(chuàng)建category類型數(shù)據(jù)的幾種方法
- python中pandas.read_csv()函數(shù)的深入講解
- pandas 顛倒列順序的兩種解決方案
- pandas調(diào)整列的順序以及添加列的實現(xiàn)
- pandas快速處理Excel,替換Nan,轉(zhuǎn)字典的操作
- Python基礎(chǔ)之教你怎么在M1系統(tǒng)上使用pandas
相關(guān)文章
python cookielib 登錄人人網(wǎng)的實現(xiàn)代碼
今天晚上不是很忙,所以早早的就在電腦的旁邊開始寫東西了。我今天給大家分享一個我自己用python寫的自動登錄 人人網(wǎng)的腳本,沒辦法就是懶!懶的輸入帳號和密碼,讓python給我們減少工作量2012-12-12driver = webdriver.Chrome()報錯問題及解決
這篇文章主要介紹了driver = webdriver.Chrome()報錯問題及解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2023-02-02Diango + uwsgi + nginx項目部署的全過程(可外網(wǎng)訪問)
這篇文章主要給大家介紹了關(guān)于Diango + uwsgi + nginx項目部署的全過程(可外網(wǎng)訪問),文中通過示例代碼將部署的過程介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧。2018-04-04Python時間模塊datetime、time、calendar的使用方法
這篇文章主要介紹了Python時間模塊的使用方法,主要包括三大模塊datetime、time、calendar,感興趣的小伙伴們可以參考一下2016-01-01使用Python實現(xiàn)優(yōu)雅生成假數(shù)據(jù)
Faker是一個Python包,開源的GITHUB項目,主要用來創(chuàng)建偽數(shù)據(jù),這篇文章主要為大家詳細介紹了Python如何使用Faker生成假數(shù)據(jù),感興趣的小伙伴可以了解下2023-12-12