百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

Java对象列表去重:Stream distinct()与equals/hashCode完美搭配

liuian 2025-09-29 07:21 15 浏览

在日常开发中,我们经常遇到需要对对象列表去重的场景——比如从数据库查询出重复数据、批量导入时过滤重复记录,或者合并多个数据源时剔除重复对象。Java 8的Stream API提供了distinct()方法,一句代码就能实现去重,但很多小伙伴在处理自定义对象时却频频踩坑:明明属性相同的对象,用distinct()就是去不掉!今天就带大家彻底搞懂自定义对象去重的底层逻辑,结合equals()hashCode()的最佳实践,让你写出既简洁又高效的去重代码!

一、为什么distinct()对自定义对象"失效"?

先看一个经典反例:定义一个Person类,包含idname属性,当我们用Stream.distinct()List<Person>去重时,明明id相同的对象却被当成不同元素保留了下来——这是为什么?

// 错误示例:未重写equals和hashCode
class Person {
    private String id;
    private String name;

    // 省略构造器和getter/setter
}

public class Test {
    public static void main(String[] args) {
        List<Person> list = Arrays.asList(
            new Person("1", "张三"),
            new Person("1", "张三"), // id相同,理应去重
            new Person("2", "李四")
        );

        // 去重后依然有3个元素!
        long count = list.stream().distinct().count();
        System.out.println(count); // 输出结果:3 
    }
}

关键原因:distinct()的底层依赖

distinct()方法的去重逻辑并非比较对象内容,而是依赖equals()hashCode()方法。默认情况下,这两个方法继承自Object类:

  • equals():比较对象内存地址(类似==
  • hashCode():返回对象内存地址的哈希值

因此,即使两个Person对象的idname完全相同,只要是不同的对象实例,distinct()就会认为它们是不同元素,导致去重失败。

二、核心解决方案:重写equals()和hashCode()

要让distinct()正确识别自定义对象的重复,必须同时重写equals()hashCode(),并遵循以下契约:

  1. 一致性:对象属性不变时,多次调用hashCode()返回值相同
  2. 等价性:若a.equals(b) == true,则a.hashCode() == b.hashCode()
  3. 非等价性:若a.equals(b) == falsehashCode()尽量不同(提升哈希表性能)

步骤1:定义实体类并重写方法

Person类为例,假设我们需要根据id去重(id是唯一标识),代码如下:

import java.util.Objects;

class Person {
    private String id; // 唯一标识,用于去重
    private String name;

    // 构造器、getter/setter省略

    // 重写equals:根据id判断是否相等
    @Override
    public boolean equals(Object o) {
        if (this == o) return true; // 同一对象直接返回true
        if (o == null || getClass() != o.getClass()) return false; // 类型不同返回false
        Person person = (Person) o;
        return Objects.equals(id, person.id); // 比较id是否相同
    }

    // 重写hashCode:基于id生成哈希值
    @Override
    public int hashCode() {
        return Objects.hash(id); // 使用Objects.hash简化哈希计算
    }
}

步骤2:使用Stream.distinct()去重

重写后,distinct()就能正确识别重复对象:

public class Test {
    public static void main(String[] args) {
        List<Person> list = Arrays.asList(
            new Person("1", "张三"),
            new Person("1", "张三"), // 重复对象,会被去重
            new Person("2", "李四")
        );

        // 去重后只剩2个元素
        List<Person> uniqueList = list.stream()
                .distinct()
                .collect(Collectors.toList());

        System.out.println(uniqueList.size()); // 输出结果:2 
    }
}


代码运行效果:通过重写equals和hashCode,distinct()成功去除重复对象

三、3种进阶去重方法:灵活应对复杂场景

除了distinct(),实际开发中还会遇到无法修改实体类(如第三方库对象)或需要按部分属性去重的场景,这时可以用以下3种方法:

方法1:基于单个属性去重(Collectors.toMap)

适用于根据某个唯一属性(如id)去重,且需保留首个出现元素的场景:

List<Person> list = Arrays.asList(
    new Person("1", "张三"),
    new Person("1", "张三"),
    new Person("2", "李四")
);

// 以id为key,冲突时保留已有元素
List<Person> uniqueList = list.stream()
    .collect(Collectors.toMap(
        Person::getId,  // key:id(去重依据)
        p -> p,         // value:对象本身
        (existing, replacement) -> existing // 冲突处理:保留前者
    ))
    .values() // 提取value集合
    .stream()
    .collect(Collectors.toList());

方法2:基于多属性去重(TreeSet自定义比较器)

当需要根据多个属性(如id+name)去重时,可使用TreeSet搭配比较器:

List<Person> list = Arrays.asList(
    new Person("1", "张三"),
    new Person("1", "张三"), // id+name相同,去重
    new Person("1", "张小三") // id相同但name不同,保留
);

// 按id+name组合属性去重
List<Person> uniqueList = list.stream()
    .collect(Collectors.toCollection(
        () -> new TreeSet<>(
            Comparator.comparing(p -> p.getId() + p.getName()) // 组合属性
        )
    ))
    .stream()
    .collect(Collectors.toList());

方法3:动态条件去重(filter+ConcurrentHashMap)

动态指定去重规则(如保留最后出现的元素)时,用filter配合线程安全的集合:

List<Person> list = Arrays.asList(
    new Person("1", "张三"),
    new Person("1", "张三"), // 重复,保留后者
    new Person("2", "李四")
);

// 线程安全的Set记录已出现的id
Set<String> seenIds = ConcurrentHashMap.newKeySet();

// 保留最后出现的重复元素
List<Person> uniqueList = list.stream()
    .filter(p -> seenIds.add(p.getId())) // add返回false表示重复
    .collect(Collectors.toList());

四、避坑指南:常见问题与解决方案

问题场景

错误原因

解决方案

只重写equals不重写hashCode

导致hashCode不同,distinct()认为对象不同

必须同时重写两个方法,确保逻辑一致

去重后元素顺序改变

HashSet/HashMap不保证顺序

使用LinkedHashSettoMap指定LinkedHashMap

并行流去重出现重复

多线程操作共享集合导致线程不安全

使用
ConcurrentHashMap.newKeySet()
替代普通Set

复杂对象哈希冲突

hashCode实现不合理(如固定返回1)

Objects.hash(field1, field2)组合多字段哈希


HashSet去重流程图:先通过hashCode定位,再用equals比较,两者缺一不可

五、实战案例:电商订单数据去重

场景:批量导入订单数据时,需根据orderId去重,避免重复入库。
实现:定义Order类并重写equalshashCode,使用Stream.distinct()去重。

class Order {
    private String orderId; // 订单唯一标识
    private String product;
    private BigDecimal amount;

    // 重写equals和hashCode(基于orderId)
    @Override
    public boolean equals(Object o) { /* 实现略 */ }
    @Override
    public int hashCode() { /* 实现略 */ }
}

// 批量导入去重
List<Order> orders = importFromExcel(); // 从Excel读取订单
List<Order> uniqueOrders = orders.stream()
    .distinct()
    .collect(Collectors.toList());
db.batchInsert(uniqueOrders); // 入库去重后的订单

案例来源:CSDN博客《java使用Stream流对自定义对象数组去重的实现》

六、最佳实践

  1. 优先使用distinct():简单场景下,重写equalshashCode后直接调用,代码最简洁。
  2. 灵活选择工具方法:无法修改实体类用toMap/TreeSet,动态规则用filter+Set
  3. 重视性能优化:大数据集去重时,预排序减少哈希冲突,并行流用ConcurrentHashMap

掌握这些技巧,不仅能解决日常开发中的去重问题,更能深入理解Java集合框架的底层逻辑。快去试试用Stream API优化你的去重代码吧!如果觉得有用,记得点赞收藏哦~

相关推荐

教你把多个视频合并成一个视频的方法

一.情况介绍当你有一个m3u8文件和一个目录,目录中有连续的视频片段,这些片段可以连成一段完整的视频。m3u8文件打开后像这样:m3u8文件,可以理解为播放列表,里面是播放视频片段的顺序。视频片段像这...

零代码编程:用kimichat合并一个文件夹下的多个文件

一个文件夹里面有很多个srt字幕文件,如何借助kimichat来自动批量合并呢?在kimichat对话框中输入提示词:你是一个Python编程专家,完成如下的编程任务:这个文件夹:D:\downloa...

Java APT_java APT 生成代码

JavaAPT(AnnotationProcessingTool)是一种在Java编译阶段处理注解的工具。APT会在编译阶段扫描源代码中的注解,并根据这些注解生成代码、资源文件或其他输出,...

Unit Runtime:一键运行 AI 生成的代码,或许将成为你的复制 + 粘贴神器

在我们构建了UnitMesh架构之后,以及对应的demo之后,便着手于实现UnitMesh架构。于是,我们就继续开始UnitRuntime,以用于直接运行AI生成的代码。PS:...

挣脱臃肿的枷锁:为什么说Vert.x是Java开发者手中的一柄利剑?

如果你是一名Java开发者,那么你的职业生涯几乎无法避开Spring。它如同一位德高望重的老国王,统治着企业级应用开发的大片疆土。SpringBoot的约定大于配置、SpringCloud的微服务...

五年后,谷歌还在全力以赴发展 Kotlin

作者|FredericLardinois译者|Sambodhi策划|Tina自2017年谷歌I/O全球开发者大会上,谷歌首次宣布将Kotlin(JetBrains开发的Ja...

kotlin和java开发哪个好,优缺点对比

Kotlin和Java都是常见的编程语言,它们有各自的优缺点。Kotlin的优点:简洁:Kotlin程序相对于Java程序更简洁,可以减少代码量。安全:Kotlin在类型系统和空值安全...

移动端架构模式全景解析:从MVC到MVVM,如何选择最佳设计方案?

掌握不同架构模式的精髓,是构建可维护、可测试且高效移动应用的关键。在移动应用开发中,选择合适的软件架构模式对项目的可维护性、可测试性和团队协作效率至关重要。随着应用复杂度的增加,一个良好的架构能够帮助...

颜值非常高的XShell替代工具Termora,不一样的使用体验!

Termora是一款面向开发者和运维人员的跨平台SSH终端与文件管理工具,支持Windows、macOS及Linux系统,通过一体化界面简化远程服务器管理流程。其核心定位是解决多平台环境下远程连接、文...

预处理的底层原理和预处理编译运行异常的解决方案

若文章对您有帮助,欢迎关注程序员小迷。助您在编程路上越走越好![Mac-10.7.1LionIntel-based]Q:预处理到底干了什么事情?A:预处理,顾名思义,预先做的处理。源代码中...

为“架构”再建个模:如何用代码描述软件架构?

在架构治理平台ArchGuard中,为了实现对架构的治理,我们需要代码+模型描述所要处理的内容和数据。所以,在ArchGuard中,我们有了代码的模型、依赖的模型、变更的模型等,剩下的两个...

深度解析:Google Gemma 3n —— 移动优先的轻量多模态大模型

2025年6月,Google正式发布了Gemma3n,这是一款能够在2GB内存环境下运行的轻量级多模态大模型。它延续了Gemma家族的开源基因,同时在架构设计上大幅优化,目标是让...

比分网开发技术栈与功能详解_比分网有哪些

一、核心功能模块一个基本的比分网通常包含以下模块:首页/总览实时比分看板:滚动展示所有正在进行的比赛,包含比分、比赛时间、红黄牌等关键信息。热门赛事/焦点战:突出显示重要的、关注度高的比赛。赛事导航...

设计模式之-生成器_一键生成设计

一、【概念定义】——“分步构建复杂对象,隐藏创建细节”生成器模式(BuilderPattern):一种“分步构建型”创建型设计模式,它将一个复杂对象的构建与其表示分离,使得同样的构建过程可以创建...

构建第一个 Kotlin Android 应用_kotlin简介

第一步:安装AndroidStudio(推荐IDE)AndroidStudio是官方推荐的Android开发集成开发环境(IDE),内置对Kotlin的完整支持。1.下载And...