1. 程式人生 > >C#黔驢技巧之去重(Distinct)

C#黔驢技巧之去重(Distinct)

前言

關於C#中預設的Distinct方法在什麼情況下才能去重,這個就不用我再多講,針對集合物件去重預設實現將不再滿足,於是乎我們需要自定義實現來解決這個問題,接下來我們詳細講解幾種常見去重方案,孰好孰歹自行判之。

分組

首先給出我們需要用到的物件,如下:

public class Person
{
    public string Name { get; set; }
    public int Age { get; set; }
}

接下來我們新增100萬條資料到集合中,如下:

var list = new List<Person>();
for (int i = 0; i < 1000000; i++)
{
    list.Add(new Person() { Age = 18, Name = "jeffcky" });
}

接下來我們對年齡和名稱進行分組,然後取第一條即可達到去重,如下:

list = list.GroupBy(d => new { d.Age, d.Name })
    .Select(d => d.FirstOrDefault())
    .ToList();

擴充套件方法(HashSet去重)

我們知道在C#中HashSet對於重複元素會進行過濾篩選,所以我們寫下如下擴充套件方法,遍歷集合元素,最後利用HashSet進行過濾達到去重目的,如下:

public static IEnumerable<TSource> Distinct<TSource, TKey>(
        this IEnumerable<TSource> source,
        Func<TSource, TKey> keySelector)
    {
        var hashSet = new HashSet<TKey>();
        
        foreach (TSource element in source)
        {
            if (hashSet.Add(keySelector(element)))
            {
                yield return element;
            }
        }
    }

最後呼叫上述擴充套件方法即可去重,如下:

 list = list.Distinct(d => new { d.Age, d.Name }).ToList();

擴充套件方法(IEqualityComparer去重)

在實際專案中有很多通過具體實現類實現該介面,通過重寫Equals和HashCode比較屬性值來達到去重目的,因為對於每一個類都得實現對應比較器,所以並不通用,反而利用上述方式才是最佳,其實我們大可藉助該比較介面實現通用解決方案,對於每一個類都得實現一個比較器的原因在於,我們將屬性比較放在類該介面內部,如果我們將屬性比較放在外圍呢,這個時候就達到了通用解決方案,那麼我們怎麼實現呢,通過委託來實現,實現該介面的本質無非就是比較HashCode,然後通過Equals比較其值,當比較HashCode時,我們強制其值為一個常量(比如0),當重寫Equals方法我們呼叫委託即可,如下:

public static class Extensions
{
    public static IEnumerable<T> Distinct<T>(
        this IEnumerable<T> source, Func<T, T, bool> comparer)
        where T : class
        => source.Distinct(new DynamicEqualityComparer<T>(comparer));

    private sealed class DynamicEqualityComparer<T> : IEqualityComparer<T>
        where T : class
    {
        private readonly Func<T, T, bool> _func;

        public DynamicEqualityComparer(Func<T, T, bool> func)
        {
            _func = func;
        }

        public bool Equals(T x, T y) => _func(x, y);

        public int GetHashCode(T obj) => 0;
    }
}

最終通過指定屬性進行比較即可去重,如下:

list = list.Distinct((a, b) => a.Age == b.Age && a.Name == b.Name).ToList();

效能比較

以上3種常見方式我們已經介紹完畢了,當資料量比較小時,我們大可忽略對集合進行各種操作所帶來的效能,但是一旦資料量很大時,我們可能需要考慮效能,能節省一點時間或許有必要,於是乎,在上述100萬條資料前提下,我們來分析其耗時情況,如下:

var list = new List<Person>();
for (int i = 0; i < 1000000; i++)
{
    list.Add(new Person() { Age = 18, Name = "jeffcky" });
}

var time1 = Time(() =>
{
    list.GroupBy(d => new { d.Age, d.Name })
        .Select(d => d.FirstOrDefault())
        .ToList();
});
Console.WriteLine($"分組耗時:{time1}");

var time2 = Time(() =>
{
    list.Distinct(d => new { d.Age, d.Name }).ToList();
});
Console.WriteLine($"HashSet耗時:{time2}");

var time3 = Time(() =>
{
    list.Distinct((a, b) => a.Age == b.Age && a.Name == b.Name).ToList();
});
Console.WriteLine($"委託耗時:{time3}");


static long Time(Action action)
{
    var stopwatch = new Stopwatch();
    stopwatch.Start();
    action();
    stopwatch.Stop();
    return stopwatch.ElapsedMilliseconds;
}

總結

上述結果耗時大小比較理論應該不會出現逆轉的情況,只是多少的問題,資料量較少時理論上差異也很明顯,本文對於去重方式只是基於效能角度來分析,還是那句話大部分情況下,我們完全不需要考慮這些問題,不過,作為程式設計師的我們可能也想寫出高效能、高質量的程式碼吧,有時候多考慮考慮也無妨,對自身有個好的程式碼質量要求也未嘗不可,也還是那句話,孰好孰歹,自行判之。&n