Python統(tǒng)計列表元素出現(xiàn)次數(shù)的方法示例
1. 引言
在使用Python的時候,通常會出現(xiàn)如下場景:
array = [1, 2, 3, 3, 2, 1, 0, 2]
獲取array中元素的出現(xiàn)次數(shù)
比如,上述列表中:0出現(xiàn)了1次,1出現(xiàn)了2次,2出現(xiàn)了3次,3出現(xiàn)了2次。
本文闡述了Python獲取元素出現(xiàn)次數(shù)的幾種方法。點擊獲取完整代碼。
2. 方法
獲取元素出現(xiàn)次數(shù)的方法較多,這里我提出如下5個方法,謹供參考。下面的代碼,傳入的參數(shù)均為
array = [1, 2, 3, 3, 2, 1, 0, 2]
2.1 Counter方法
該方法可以迅速獲取list中元素出現(xiàn)的次數(shù),可以參考官方文檔
from collections import Counter def counter(arr): return Counter(arr).most_common(2) # 返回出現(xiàn)頻率最高的兩個數(shù) # 結(jié)果:[(2, 3), (1, 2)]
2.2 list中的count,獲取每個元素的出現(xiàn)次數(shù)
def single_list(arr, target): return arr.count(target) # target=2,結(jié)果:3
2.3 list中的count,獲取所有元素的出現(xiàn)次數(shù)
返回一個dict
def all_list(arr): result = {} for i in set(arr): result[i] = arr.count(i) return result # 結(jié)果:{0: 1, 1: 2, 2: 3, 3: 2}
2.4 Numpy花式索引,獲取每個元素的出現(xiàn)次數(shù)
def single_np(arr, target): arr = np.array(arr) mask = (arr == target) arr_new = arr[mask] return arr_new.size # target=2,結(jié)果:3
2.5 Numpy花式索引,獲取所有元素的出現(xiàn)次數(shù)
返回一個dict
def all_np(arr): arr = np.array(arr) key = np.unique(arr) result = {} for k in key: mask = (arr == k) arr_new = arr[mask] v = arr_new.size result[k] = v return result # 結(jié)果:{0: 1, 1: 2, 2: 3, 3: 2}
3. 總結(jié)
以上就是我總結(jié)的幾種Python獲取元素出現(xiàn)個數(shù)的方法。
值得一提的是,我所用的list所有元素都是整數(shù)
array = [1, 2, 3, 3, 2, 1, 0, 2]
如果list中包含其它類型的元素,比如
array = [1, 2, 3, 3, 2, 1, 'a', 'bc', 0.1]
這種情況下需要獲取 a或1 的出現(xiàn)次數(shù)時,2.4中函數(shù)的調(diào)用形式應當為:target='a' / target='1'
到此這篇關(guān)于Python統(tǒng)計列表元素出現(xiàn)次數(shù)的方法示例的文章就介紹到這了,更多相關(guān)Python統(tǒng)計列表元素出現(xiàn)次數(shù)內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python+opencv 實現(xiàn)圖片文字的分割的方法示例
這篇文章主要介紹了Python+opencv 實現(xiàn)圖片文字的分割的方法示例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2019-07-07python使用百度或高德地圖獲取地理位置并轉(zhuǎn)換
用python處理地理位置是非常常見的需求,下面這篇文章主要給大家介紹了關(guān)于python使用百度或高德地圖獲取地理位置并轉(zhuǎn)換的相關(guān)資料,文中通過示例代碼介紹的非常詳細,需要的朋友可以參考下2022-07-07對DataFrame數(shù)據(jù)中的重復行,利用groupby累加合并的方法詳解
今天小編就為大家分享一篇對DataFrame數(shù)據(jù)中的重復行,利用groupby累加合并的方法詳解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-01-01Python在Scrapy中設(shè)置采集深度的實現(xiàn)
Scrapy是一個功能強大的Python爬蟲框架,通過設(shè)置采集深度,可以優(yōu)化爬蟲效率,并防止爬蟲陷入無盡的鏈接循環(huán),本文詳細介紹了如何在Scrapy中控制采集深度,感興趣的可以了解一下2024-10-10