C#集合數(shù)據(jù)去重的5種方式及對比分析
BenchmarkDotNet介紹
BenchmarkDotNet是一個基于.NET開源、功能全面、易于使用的性能基準測試框架,它為.NET開發(fā)者提供了強大的性能評估和優(yōu)化能力。通過自動化測試、多平臺支持、高級統(tǒng)計分析和自定義配置等特性,BenchmarkDotNet幫助開發(fā)者更好地理解和優(yōu)化軟件系統(tǒng)的性能表現(xiàn)。
使用HashSet去重
C# 中的 HashSet 是一種集合類型,它確保其中的元素是唯一的,不允許重復值的存在。當你嘗試向 HashSet 中添加一個重復的元素時,HashSet 會忽略重復的值,而不會引發(fā)錯誤。這使得 HashSet 成為一個非常方便的數(shù)據(jù)結構,用于存儲一組唯一的元素,并且在需要時可以高效地進行查找、插入和刪除操作,注意HashSet中的元素是無序的。
/// <summary> /// 使用HashSet去重 /// TODO:HashSet是一個集合類,它的特點是不允許重復元素,可以方便地實現(xiàn)去重功能。 /// </summary> public static void HashSetDuplicate() { var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 }; HashSet<int> uniqueData = new HashSet<int>(dataSource); Console.WriteLine(string.Join(", ", uniqueData)); }
使用循環(huán)遍歷去重
/// <summary> /// 直接循環(huán)遍歷去重 /// </summary> public static void LoopTraversalDuplicate() { var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 }; var uniqueData = new List<int>(); foreach (var item in dataSource) { //if (!uniqueData.Any(x => x == item)) //if (!uniqueData.Exists(x => x == item)) if (!uniqueData.Contains(item)) { uniqueData.Add(item); } } Console.WriteLine(string.Join(", ", uniqueData)); }
使用Linq的Distinct()方法去重
Linq中的Distinct()方法用于從集合中篩選出不重復的元素。Distinct()方法基于元素的相等性來進行篩選,并返回一個包含不重復元素的新序列。底層實現(xiàn)還是使用到了HashSet。
/// <summary> /// 使用Linq的Distinct()方法去重 /// </summary> public static void DistinctDuplicate() { var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 }; var uniqueData = dataSource.Distinct().ToList(); Console.WriteLine(string.Join(", ", uniqueData)); }
使用Linq的GroupBy()方法去重
GroupBy()方法將原始集合中的元素進行分組,根據(jù)指定的鍵或條件進行分組。每個分組都會有一個唯一的鍵,通過將原始集合分組并選擇每個分組中的第一個元素,實現(xiàn)了去重的效果。
/// <summary> /// 使用Linq的GroupBy()方法去重 /// </summary> public static void GroupByDuplicate() { var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 }; //GroupBy()方法將原始集合中的元素進行分組,根據(jù)指定的鍵或條件進行分組。每個分組都會有一個唯一的鍵,通過將原始集合分組并選擇每個分組中的第一個元素,實現(xiàn)了去重的效果。 var uniqueData = dataSource.GroupBy(item => item).Select(group => group.First()).ToList(); Console.WriteLine(string.Join(", ", uniqueData)); }
使用自定義的比較器和循環(huán)遍歷
/// <summary> /// 使用自定義的比較器和循環(huán)遍歷 /// </summary> public static void CustomEqualityComparerDuplicate() { var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 }; var uniqueData = new List<int>(); foreach (var item in dataSource) { if (!uniqueData.Contains(item, new CustomEqualityComparer())) { uniqueData.Add(item); } } Console.WriteLine(string.Join(", ", uniqueData)); } /// <summary> /// 自定義的比較器 /// </summary> public class CustomEqualityComparer : IEqualityComparer<int> { public bool Equals(int x, int y) { return x == y; } public int GetHashCode(int obj) { return obj.GetHashCode(); } }
性能基準對比測試分析
接下來我們使用BenchmarkDotNet
對這5種集合去重的方式進行性能基準對比測試分析。
測試代碼
using BenchmarkDotNet.Attributes; namespace BenchmarkDotNetExercise { [MemoryDiagnoser]//記錄內(nèi)存分配情況 public class DataSetDeduplicationBenchmark { private List<int> dataSource; public DataSetDeduplicationBenchmark() { // 生成大量重復數(shù)據(jù) dataSource = Enumerable.Repeat(Enumerable.Range(1, 100), 10000).SelectMany(x => x).ToList(); } /// <summary> /// 使用HashSet去重 /// TODO:HashSet是一個集合類,它的特點是不允許重復元素,可以方便地實現(xiàn)去重功能。 /// </summary> [Benchmark] public void HashSetDuplicate() { HashSet<int> uniqueData = new HashSet<int>(dataSource); } /// <summary> /// 直接循環(huán)遍歷去重 /// </summary> [Benchmark] public void LoopTraversalDuplicate() { var uniqueData = new List<int>(); foreach (var item in dataSource) { //if (!uniqueData.Any(x => x == item)) //if (!uniqueData.Exists(x => x == item)) if (!uniqueData.Contains(item)) { uniqueData.Add(item); } } } /// <summary> /// 使用Linq的Distinct()方法去重 /// </summary> [Benchmark] public void DistinctDuplicate() { var uniqueData = dataSource.Distinct().ToList(); } /// <summary> /// 使用Linq的GroupBy()方法去重 /// </summary> [Benchmark] public void GroupByDuplicate() { //GroupBy()方法將原始集合中的元素進行分組,根據(jù)指定的鍵或條件進行分組。每個分組都會有一個唯一的鍵,通過將原始集合分組并選擇每個分組中的第一個元素,實現(xiàn)了去重的效果。 var uniqueData = dataSource.GroupBy(item => item).Select(group => group.First()).ToList(); } /// <summary> /// 使用自定義的比較器和循環(huán)遍歷 /// </summary> [Benchmark] public void CustomEqualityComparerDuplicate() { var uniqueData = new List<int>(); foreach (var item in dataSource) { if (!uniqueData.Contains(item, new CustomEqualityComparer())) { uniqueData.Add(item); } } } /// <summary> /// 自定義的比較器 /// </summary> public class CustomEqualityComparer : IEqualityComparer<int> { public bool Equals(int x, int y) { return x == y; } public int GetHashCode(int obj) { return obj.GetHashCode(); } } } }
分析生成的報告
Method | Mean | Error | StdDev | Gen0 | Gen1 | Gen2 | Allocated |
---|---|---|---|---|---|---|---|
HashSetDuplicate | 7.043 ms | 0.0546 ms | 0.0511 ms | 343.7500 | 343.7500 | 343.7500 | 18169.63 KB |
LoopTraversalDuplicate | 7.385 ms | 0.0309 ms | 0.0274 ms | - | - | - | 1.16 KB |
DistinctDuplicate | 7.034 ms | 0.0497 ms | 0.0465 ms | 343.7500 | 343.7500 | 343.7500 | 18170.1 KB |
GroupByDuplicate | 12.685 ms | 0.1025 ms | 0.0958 ms | 2265.6250 | 1781.2500 | 515.6250 | 12843.65 KB |
CustomEqualityComparerDuplicate | 25.608 ms | 0.1826 ms | 0.1708 ms | 3812.5000 | - | - | 23438.68 KB |
說明:
- Mean: 所有測量值的算術平均值。
- Error: 99.9% 置信區(qū)間的一半。
- StdDev: 所有測量值的標準差。
- Gen0: 第 0 代 GC 每 1000 次操作收集一次。
- Gen1: 第 1 代 GC 每 1000 次操作收集一次。
- Gen2: 第 2 代 GC 每 1000 次操作收集一次。
- Allocated: 每次操作分配的內(nèi)存(僅托管內(nèi)存,包含所有內(nèi)容,1KB = 1024B)。
- 1 ms: 1 毫秒(0.001 秒)。
以上就是C#集合數(shù)據(jù)去重的5種方式及對比分析的詳細內(nèi)容,更多關于C#集合數(shù)據(jù)去重的資料請關注腳本之家其它相關文章!
相關文章
C#簡單讀取、改變文件的創(chuàng)建、修改及訪問時間的方法
這篇文章主要介紹了C#簡單讀取、改變文件的創(chuàng)建、修改及訪問時間的方法,涉及C#文件類SetCreationTime、SetLastWriteTime及SetLastAccessTime的相關使用技巧,需要的朋友可以參考下2015-07-07C#實現(xiàn)的中國移動官網(wǎng)手機號碼采集器
這篇文章主要介紹了C#實現(xiàn)的中國移動官網(wǎng)手機號碼采集器,本文先是采集號碼入庫,同時給出了篩選各類靚號的SQL語句,需要的朋友可以參考下2014-10-10c#中Winform實現(xiàn)多線程異步更新UI(進度及狀態(tài)信息)
本篇文章主要介紹了c#中Winform實現(xiàn)多線程異步更新UI(進度及狀態(tài)信息) ,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2017-02-02