百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

免费Python机器学习课程九:K均值聚类

liuian 2025-05-02 11:48 24 浏览


Python从头开始的完整K均值聚类算法:分步指南

另外,如何使用K均值聚类算法进行图像降维

K聚类是什么意思?

K均值聚类是最流行和广泛使用的无监督学习模型。它也称为群集,因为它通过群集数据来工作。与监督学习模型不同,非监督模型不使用标记数据。

该算法的目的不是预测任何标签。而是更好地了解数据集并对其进行标记。

在k均值聚类中,我们将数据集聚类为不同的组。

这是k均值聚类算法的工作原理

1.第一步是随机初始化一些点。这些点称为簇质心。

在上图中,红色和蓝色点是群集质心。

您可以选择任意数量的群集质心。但是簇质心的数量必须少于数据点的总数。

2.第二步是群集分配步骤。在此步骤中,我们需要遍历每个绿点。根据点是否更靠近红色或蓝色点,我们需要将其分配给其中一个点。

换句话说,根据绿色点是红色还是蓝色来着色,具体取决于它是靠近蓝色簇质心还是红色簇质心。

3.下一步是移动群集质心。现在,我们必须对分配给红色聚类质心的所有红点取平均值,然后将红色聚类质心移至该平均值。我们需要对蓝色簇质心执行相同的操作。

现在,我们有了新的簇质心。我们必须回到编号2(集群分配步骤)。我们需要将点重新排列到新的群集质心。在那之后重复第三。

数字2和3需要重复几次,直到两个聚类质心都位于合适的位置,如下图所示。

看,我们只是按照分配给它们的簇质心对所有绿色点进行了着色。蓝色簇质心位于蓝色簇的中心,红色簇质心位于红色簇的中心。

当我们开发该算法时,将会稍微清楚一点。我们将对此进行更详细的讨论。

开发算法

我将用于此算法的数据集是从安德鲁·伍(Andrew Ng)在Coursera的机器学习课程中获得的。这是开发k均值算法的分步指南:

1.导入必要的包和数据集

import pandas as pd
import numpy as np
df1 = pd.read_excel('dataset.xlsx', sheet_name='ex7data2_X', header=None)
df1.head()

数据集只有两列。我采用了两个特色数据集,因为它很容易可视化。当您看到视觉效果时,该算法将对您更容易理解。但是,相同的算法也将适用于多维数据集。

我将DataFrame df1转换为Numpy数组,因为我们将在此过程中处理其他数组:

X = np.array(df1)

现在,我将按照上面讨论的三个步骤进行操作。

2.第一步是随机初始化质心。

我将从数据集中随机初始化三个点。首先,我将在0和数据集长度之间选择三个数字。

import randominit_centroids = random.sample(range(0, len(df1)), 3)
init_centroids

输出:

[95, 30, 17]

使用这三个数字作为索引,并获取这些索引的数据点。

centroids = []
for i in init_centroids:
    centroids.append(df1.loc[i])
centroids

输出:

[0 3.907793
1 5.094647
Name: 95, dtype: float64,
0 2.660466
1 5.196238
Name: 30, dtype: float64,
0 3.007089
1 4.678978
Name: 17, dtype: float64]

这三点是我们最初的质心。

我将它们转换为二维数组。因为这是我比较熟悉的格式。

centroids = np.array(centroids)

输出:

array([[3.90779317, 5.09464676],
[2.66046572, 5.19623848],
[3.00708934, 4.67897758]])

3.实施群集分配步骤。

在这一步中,我们将遍历数据集中的所有数据点。

一个数据点表示一行数据

让我们看一行数据,了解如何将这些数据分配给集群。

我们将计算所有三个质心的数据距离。然后将该数据点分配给距离最短的质心。

如我们所见,我们必须计算两个点之间的许多距离。让我们开发一个计算距离的函数。

def calc_distance(X1, X2):
    return(sum((X1 - X2)**2))**0.5

开发一个函数,将每个数据点分配给一个质心。我们的"质心"数组只有三个值。因此,我们有三个索引:0、1、2。我们将为每个数据点分配这些索引之一。

def findClosestCentroids(ic, X):
    assigned_centroid = []
    for i in X:
        distance=[]
        for j in ic:
            distance.append(calc_distance(i, j))
        assigned_centroid.append(np.argmin(distance))
    return assigned_centroid

此功能是将数据点分配给群集的功能。让我们使用此函数来计算每个数据点的质心:

get_centroids = findClosestCentroids(centroids, X)
get_centroids

部分输出:

[2,
0,
0,
2,
1,
2,
2,
2,
1,
1,
2,
2,
2,
2,
2,
2,
0,

总输出很长。因此,我在这里显示部分输出。输出中的第一个质心为2,这意味着将其分配给质心列表的索引2。

4.最后一步是根据数据点的平均值移动质心

在这一步中,我们将取每个质心的所有数据点的平均值,然后将质心移动到该平均值。

例如,我们将在索引2处找到分配给质心的所有点的平均值,然后将质心2移至平均值。对索引0和1的质心也执行相同的操作。

让我们定义一个函数来做到这一点:

def calc_centroids(clusters, X):
    new_centroids = []
    new_df = pd.concat([pd.DataFrame(X), pd.DataFrame(clusters, columns=['cluster'])],
                      axis=1)
    for c in set(new_df['cluster']):
        current_cluster = new_df[new_df['cluster'] == c][new_df.columns[:-1]]
        cluster_mean = current_cluster.mean(axis=0)
        new_centroids.append(cluster_mean)
    return new_centroids

这些都是我们需要开发的所有功能。

正如我之前所讨论的,我们需要重复此群集分配过程,并多次移动质心,直到质心处于合适的位置。

对于此问题,我选择重复此过程10次。我将在每次迭代后继续绘制质心和数据,以直观地向您展示其工作方式。

for i in range(10):
    get_centroids = findClosestCentroids(centroids, X)
    centroids = calc_centroids(get_centroids, X)
    #print(centroids)
    plt.figure()
    plt.scatter(np.array(centroids)[:, 0], np.array(centroids)[:, 1], color='black')
    plt.scatter(X[:, 0], X[:, 1], alpha=0.1)
    plt.show()

经过五次迭代,将质心设置为其最佳位置。因此,他们此后不再更改职位。

我建议,在尝试降维之前,请运行上面的所有代码以使其学习好。

否则,您可能会感到不知所措!另外,由于我们已经详细解释了该算法,因此我现在将加快执行速度。

降维

我想解释一下这种算法的至少一个用例。一种非常有用的用例是降维。

想一想图像。图像中可能有太多不同的像素。在任何计算机视觉问题中,如果我们可以缩小图片的尺寸,则设备读取该图片的速度将大大提高!是不是

我们可以使用刚刚开发的算法来缩小图片的尺寸。

我将使用青蛙的图片来说明这一点:


我将这张照片上传到了与笔记本相同的文件夹中。让我们导入这个:

import cv2
im = cv2.imread('frog.png')
im

输出:

array([[[  2,  57,  20],
        [  2,  57,  20],
        [  2,  57,  21],
        ...,
        [  0,   5,   3],
        [  8,  12,  11],
        [ 91,  94,  93]],       [[  2,  56,  20],
        [  1,  54,  20],
        [  1,  56,  19],
        ...,
        [  0,   2,   1],
        [  7,   9,   8],
        [ 91,  92,  91]],       [[  2,  55,  20],
        [  2,  53,  19],
        [  1,  54,  18],
        ...,
        [  2,   4,   2],
        [  8,  11,   9],
        [ 91,  93,  91]],       ...,       [[  6,  76,  27],
        [  6,  77,  26],
        [  6,  78,  28],
        ...,
        [  6,  55,  18],
        [ 13,  61,  25],
        [ 94, 125, 102]],       [[  9,  79,  31],
        [ 11,  81,  33],
        [ 12,  82,  32],
        ...,
        [  6,  56,  19],
        [ 14,  61,  27],
        [ 96, 126, 103]],       [[ 43, 103,  63],
        [ 44, 107,  66],
        [ 46, 106,  66],
        ...,
        [ 37,  81,  50],
        [ 47,  88,  59],
        [118, 145, 126]]], dtype=uint8)

检查数组的形状,

im.sgape

输出:

(155, 201, 3)

我将整个数组除以255,以使所有值从0到1。

然后将其重塑为155 * 201 x 3,使其成为二维数组。因为我们之前开发了二维数组的所有函数。

im = (im/255).reshape(155*201, 3)

如您在上方所见,有许多不同的像素值。我们要减少它并仅保留10像素值。

让我们初始化10个随机索引,

random_index = random.sample(range(0, len(im)), 10)

现在,像上一个示例一样找到质心:

centroids = []
for i in random_index:
    centroids.append(im[i])
centroids = np.array(centroids)

输出:

array([[0.00392157, 0.21176471, 0.06666667],
[0.03529412, 0.2627451 , 0.09803922],
[0.29411765, 0.3254902 , 0.26666667],
[0.00784314, 0.18431373, 0.05882353],
[0.29019608, 0.49411765, 0.28235294],
[0.5254902 , 0.61176471, 0.48627451],
[0.04313725, 0.23921569, 0.09803922],
[0.00392157, 0.23529412, 0.0745098 ],
[0.00392157, 0.20392157, 0.04705882],
[0.22352941, 0.48235294, 0.40784314]])

现在,我也将" im"转换为数组,

im = np.array(im)

数据准备就绪。现在,我们可以继续进行集群过程。但是这次,我将不进行可视化。因为数据不再是二维的。因此,可视化并不容易。

for i in range(20):
    get_centroids = findClosestCentroids(centroids, im)
    centroids = calc_centroids(get_centroids, im)

我们现在得到了更新的质心。

centroids

输出:

[0 0.017726
1 0.227360
2 0.084389
dtype: float64,
0 0.119791
1 0.385882
2 0.247633
dtype: float64,
0 0.155117
1 0.492051
2 0.331497
dtype: float64,
0 0.006217
1 0.048596
2 0.019410
dtype: float64,
0 0.258289
1 0.553290
2 0.406759
dtype: float64,
0 0.728167
1 0.764610
2 0.689944
dtype: float64,
0 0.073519
1 0.318513
2 0.170943
dtype: float64,
0 0.035116
1 0.273665
2 0.114766
dtype: float64,
0 0.010810
1 0.144621
2 0.053192
dtype: float64,
0 0.444197
1 0.617780
2 0.513234
dtype: float64]

这是最后一步。我们只会保留这10点。

如果还打印get_centroids,您将看到集群分配。

现在,我们要遍历整个数组" im",并将数据更改为其相应的簇质心值。这样,我们将仅具有这些质心值。

我不想更改原始数组,而是要制作一个副本并在那里进行更改。

im_recovered = im.copy()
for i in range(len(im)):
    im_recovered[i] = centroids[get_centroids[i]]

您还记得,我们在一开始就更改了图像的尺寸,使其成为二维数组。我们现在需要将其更改为原始形状。

im_recovered = im_recovered.reshape(155, 201, 3)

在这里,我将并排绘制原始图像和缩小后的图像,以显示差异:

im1 = cv2.imread('frog.png')
import matplotlib.image as mpimg
fig,ax = plt.subplots(1,2)
ax[0].imshow(im1)
ax[1].imshow(im_recovered)

看,我们如此大地减小了图像的尺寸。不过,它看起来像只青蛙!但是计算机阅读起来会快得多!

结论

在本文中,我解释了k均值聚类的工作原理以及如何从头开始开发k均值聚类算法。我还解释了如何使用此算法来缩小图像尺寸。请尝试使用其他图像。

这是我在本文中使用的数据集的链接。
https://github.com/rashida048/Machine-Learning-With-Python/blob/master/kmean.xlsx

这个是代码:
https://github.com/rashida048/Machine-Learning-With-Python/blob/master/k_mean_clustering_final.ipynb


(本文由闻数起舞翻译自Rashida Nasrin Sucky的文章《A Complete K Mean Clustering Algorithm From Scratch in Python: Step by Step Guide》,转载请注明出处,原文链接:
https://towardsdatascience.com/a-complete-k-mean-clustering-algorithm-from-scratch-in-python-step-by-step-guide-1eb05cdcd461)

相关推荐

eino v0.4.5版本深度解析:接口类型处理优化与错误机制全面升级

近日,eino框架发布了v0.4.5版本,该版本在错误处理、类型安全、流处理机制以及代理配置注释等方面进行了多项优化与修复。本次更新共包含6个提交,涉及10个文件的修改,由2位贡献者共同完成。本文将详...

SpringBoot异常处理_springboot异常注解

在SpringBoot中,异常处理是构建健壮、可维护Web应用的关键部分。良好的异常处理机制可以统一返回格式、提升用户体验、便于调试和监控。以下是SpringBoot中处理异常的完整指...

Jenkins运维之路(Jenkins流水线改造Day02-1-容器项目)

这回对线上容器服务器的流水线进行了一定的改造来满足目前线上的需求,还是会将所有的自动化脚本都放置到代码库中统一管理,我感觉一章不一定写的完,所以先给标题加了个-1,话不多说开干1.本次流水线的流程设计...

告别宕机!零基础搭建服务器监控告警系统!小白也能学会!

前言本文将带你从零开始,一步步搭建一个完整的服务器指标监控与邮件告警系统,使用的技术栈均为业界主流、稳定可靠的开源工具:Prometheus:云原生时代的监控王者,擅长指标采集与告警规则定义Node_...

httprunner实战接口测试笔记,拿走不谢

每天进步一点点,关注我们哦,每天分享测试技术文章本文章出自【码同学软件测试】码同学公众号:自动化软件测试码同学抖音号:小码哥聊软件测试01开始安装跟创建项目pipinstallhttprunne...

基于JMeter的性能压测平台实现_jmeter压测方案

这篇文章已经是两年前写的,短短两年时间,JMeter开源应用技术的发展已经是翻天覆地,最初由github开源项目zyanycall/stressTestPlatform形成的这款测试工具也开始慢...

12K+ Star!新一代的开源持续测试工具!

大家好,我是Java陈序员。在企业软件研发的持续交付流程中,测试环节往往是影响效率的关键瓶颈,用例管理混乱、接口调试复杂、团队协作不畅、与DevOps流程脱节等问题都能影响软件交付。今天,给大家...

Spring Boot3 中分库分表之后如何合并查询

在当今互联网应用飞速发展的时代,数据量呈爆发式增长。对于互联网软件开发人员而言,如何高效管理和查询海量数据成为了一项关键挑战。分库分表技术应运而生,它能有效缓解单库单表数据量过大带来的性能瓶颈。而在...

离线在docker镜像方式部署ragflow0.17.2

经常项目上会出现不能连外网的情况,要怎么使用ragflow镜像部署呢,这里提供详细的步骤。1、下载基础镜像根据docker-compose-base.yml及docker-compose.yml中的i...

看,教你手写一个最简单的SpringBoot Starter

何为Starter?想必大家都使用过SpringBoot,在SpringBoot项目中,使用最多的无非就是各种各样的Starter了。那何为Starter呢?你可以理解为一个可拔插式...

《群星stellaris》军事基地跳出怎么办?解决方法一览

《群星stellaris》军事基地跳出情况有些小伙伴出现过这种情况,究竟该怎么解决呢?玩家“gmjdadk”分享的自己的解决方法,看看能不能解决。我用英文原版、德语、法语和俄语四个版本对比了一下,结果...

数据开发工具dbt手拉手教程-03.定义数据源模型

本章节介绍在dbt项目中,如何定义数据源模型。定义并引入数据源通过Extract和Load方式加载到仓库中的数据,可以使用dbt中的sources组件进行定义和描述。通过在dbt中将这些数据集(表)声...

docker compose 常用命令手册_docker-compose init

以下是DockerCompose常用命令手册,按生命周期管理、服务运维、构建配置、扩缩容、调试工具分类,附带参数解析、示例和关键说明,覆盖多容器编排核心场景:一、生命周期管理(核心命令...

RagFlow与DeepSeek R1本地知识库搭建详细步骤及代码实现

一、环境准备硬件要求独立显卡(建议NVIDIAGPU,8GB显存以上)内存16GB以上,推荐32GB(处理大规模文档时更高效)SSD硬盘(加速文档解析与检索)软件安装bash#必装组件Docker...

Docker Compose 配置更新指南_docker-compose配置

高效管理容器配置变更的最佳实践方法重启范围保留数据卷适用场景docker-composeup-d变更的服务常规配置更新--force-recreate指定/所有服务强制重建down→up流程...