1. 程式人生 > 其它 >Java 欄位去重,物件去重

Java 欄位去重,物件去重


轉載於: https://juejin.im/post/5cd6b719f265da03b2044d56


幾種列表去重的方法 在這裡我來分享幾種列表去重的方法,算是一次整理吧,如有紕漏,請不吝賜教。
1. Stream 的distinct()方法 distinct()是Java 8 中 Stream 提供的方法,返回的是由該流中不同元素組成的流。distinct()使用 hashCode() 和 eqauls() 方法來獲取不同的元素。因此,需要去重的類必須實現 hashCode() 和 equals() 方法。換句話講,我們可以通過重寫定製的 hashCode() 和 equals() 方法來達到某些特殊需求的去重。 distinct() 方法宣告如下: Stream
<T> distinct(); 複製程式碼 1.1 對於 String 列表的去重 因為 String 類已經覆寫了 equals() 和 hashCode() 方法,所以可以去重成功。 @Test public void listDistinctByStreamDistinct() { // 1. 對於 String 列表去重 List<String> stringList = new ArrayList<String>() {{ add("A"); add("A"); add(
"B"); add("B"); add("C"); }}; out.print("去重前:"); for (String s : stringList) { out.print(s); } out.println(); stringList = stringList.stream().distinct().collect(Collectors.toList()); out.print("去重後:"); for (String s : stringList) {
out.print(s); } out.println(); } 複製程式碼 結果如下: 去重前:AABBC 去重後:ABC 複製程式碼 1.2 對於實體類列表的去重 注:程式碼中我們使用了 Lombok 外掛的 @Data註解,可自動覆寫 equals() 以及 hashCode() 方法。 /** * 定義一個實體類 */ @Data public class Student { private String stuNo; private String name; } 複製程式碼 @Test public void listDistinctByStreamDistinct() throws JsonProcessingException { ObjectMapper objectMapper = new ObjectMapper(); // 1. 對於 Student 列表去重 List<Student> studentList = getStudentList(); out.print("去重前:"); out.println(objectMapper.writeValueAsString(studentList)); studentList = studentList.stream().distinct().collect(Collectors.toList()); out.print("去重後:"); out.println(objectMapper.writeValueAsString(studentList)); } 複製程式碼 結果如下: 去重前:[{"stuNo":"001","name":"Tom"},{"stuNo":"002","name":"Mike"},{"stuNo":"001","name":"Tom"}] 去重後:[{"stuNo":"001","name":"Tom"},{"stuNo":"002","name":"Mike"}] 複製程式碼 2. 根據 List<Object> 中 Object 某個屬性去重 2.1 新建一個列表出來 @Test public void distinctByProperty1() throws JsonProcessingException { // 這裡第一種方法我們通過新建立一個只有不同元素列表來實現根據物件某個屬性去重 ObjectMapper objectMapper = new ObjectMapper(); List<Student> studentList = getStudentList(); out.print("去重前 :"); out.println(objectMapper.writeValueAsString(studentList)); studentList = studentList.stream().distinct().collect(Collectors.toList()); out.print("distinct去重後:"); out.println(objectMapper.writeValueAsString(studentList)); // 這裡我們引入了兩個靜態方法,以及通過 TreeSet<> 來達到獲取不同元素的效果 // 1. import static java.util.stream.Collectors.collectingAndThen; // 2. import static java.util.stream.Collectors.toCollection; studentList = studentList.stream().collect( collectingAndThen( toCollection(() -> new TreeSet<>(Comparator.comparing(Student::getName))), ArrayList::new) ); out.print("根據名字去重後 :"); out.println(objectMapper.writeValueAsString(studentList)); } 複製程式碼 結果如下: 去重前 :[{"stuNo":"001","name":"Tom"},{"stuNo":"001","name":"Tom"},{"stuNo":"003","name":"Tom"}] distinct去重後:[{"stuNo":"001","name":"Tom"},{"stuNo":"003","name":"Tom"}] 根據名字去重後 :[{"stuNo":"001","name":"Tom"}] 複製程式碼 2.2 通過 filter() 方法 我們首先建立一個方法作為 Stream.filter() 的引數,其返回型別為 Predicate,原理就是判斷一個元素能否加入到 Set 中去,程式碼如下: private static <T> Predicate<T> distinctByKey(Function<? super T, ?> keyExtractor) { Set<Object> seen = ConcurrentHashMap.newKeySet(); return t -> seen.add(keyExtractor.apply(t)); } 複製程式碼 使用如下: @Test public void distinctByProperty2() throws JsonProcessingException { // 這裡第二種方法我們通過過濾來實現根據物件某個屬性去重 ObjectMapper objectMapper = new ObjectMapper(); List<Student> studentList = getStudentList(); out.print("去重前 :"); out.println(objectMapper.writeValueAsString(studentList)); studentList = studentList.stream().distinct().collect(Collectors.toList()); out.print("distinct去重後:"); out.println(objectMapper.writeValueAsString(studentList)); // 這裡我們將 distinctByKey() 方法作為 filter() 的引數,過濾掉那些不能加入到 set 的元素 studentList = studentList.stream().filter(distinctByKey(Student::getName)).collect(Collectors.toList()); out.print("根據名字去重後 :"); out.println(objectMapper.writeValueAsString(studentList)); } 複製程式碼 結果如下: 去重前 :[{"stuNo":"001","name":"Tom"},{"stuNo":"001","name":"Tom"},{"stuNo":"003","name":"Tom"}] distinct去重後:[{"stuNo":"001","name":"Tom"},{"stuNo":"003","name":"Tom"}] 根據名字去重後 :[{"stuNo":"001","name":"Tom"}] 複製程式碼 3. 總結 以上便是我要分享的幾種關於列表去重的方法,當然這裡沒有進行更為詳盡的效能分析,希望以後會深入底層再重新分析一下。如有紕漏,還望不吝賜教。