机器学习 —— 聚类算法
2026/4/14 10:45:31 网站建设 项目流程

目录

一、概念

二、聚类算法分类

1.根据聚类颗粒度分类

2.实现方式

三、质心 和 簇

第一步 ->

第二步 ->

第三步 ->

第四步 ->

代码案例

1.创建数据集

2.绘制散点图

3.使用K-means 聚类

4.聚类后 看散点图

5.模型评估


一、概念

无监督学习 (有特征,无标签)

聚类算法是一类无监督学习方法,在讲数据划分为若干组(簇),使得同一簇内的样本相似度搞,而不同簇间的样本差异大。

根据样本之间的相识性,讲样本划分到不同的类别中,不同的相似度计算方法,会得到不同的聚类结果。常用相似度欧式距离法计算

聚类算法的目的是在没有先验知识的情况下,自动发现数据集中的内在结构和模式。

实际应用:

用户画像,广告推荐,搜索引擎的流量推荐,恶意流量识别。

基于位置信息的商业推送,新闻聚类,筛选排序。(LBS的信息推送)

图像分割,降维,识别。 离群点检测,信用卡异常消费。 发掘相同功能的基因片段。

二、聚类算法分类

1.根据聚类颗粒度分类

粗聚类、细聚类

2.实现方式

基于划分的聚类:K-means算法->按照质心(一个簇的中心位置,通过均值计算)分类

基于层次的聚类:DIANA(自顶向下)AGNES(自底向上)

基于密度的聚类:DBSCAN算法

三、质心 和 簇

第一步 ->

初始化 分簇 假设分为两个簇,给两个质心点

初始化质心点的时候,可以是原始数据中的某一个点

第二步 ->

计算距离分簇

每个样本和不同的质心点计算距离,离它最近的那个,就是属于那个簇。

每个样本都计算和质心点的距离。

第三步 ->

计算完距离后,分了两个簇

接下来,在簇内,计算每个样本的xy平均值,找新的质心点,新的质心点的位置,

同簇内(x平均值,y平均值)

注意:新的质心点,不一定是样本点。(极低概率是样本点)

第四步 ->

计算产生新的质心点后,所有的样本再算距离新质心点的距离,重新分簇。

!什么时候停止?即什么时候聚类结束?

如果计算出来的质心点的位置和上一次质心点的位置一致。即停止聚类。

代码案例

1.创建数据集

from sklearn.datasets import make_blobs #造数据
# 1.创建数据集 ''' 参数1:样本数据 参数2:每个样本的特征数量(维度) 参数3:聚类中心坐标,设置4个质心点 (随便给) 参数4: 标准差(cluster_std),就是控制每一类数据的 “散开程度” 标准差越小 → 数据越集中、紧凑 标准差越大 → 数据越分散、松散 第 1 类:散得更开(std=0.4)第 2、3、4 类:更紧凑(std=0.2) 参数5: 随机种子 return x,y x: 一个二维的数据集 numpy.ndarray类型 [[ 1.23888592 1.13588028] [-0.56002843 1.14623716] [-1.35573954 1.25321833] ... ]] y:一个维数 集合 {0..3}.. 为什么是0-3 因为centers 用了4个质心点 也就是4个簇 ''' x,y = make_blobs(n_samples=1000, n_features=2, centers=[[-1,1],[0,0],[1,1],[2,2]], cluster_std=[0.4,0.2,0.2,0.2], random_state=444)

2.绘制散点图

# 2.绘制散点图 plt.figure() plt.scatter(x[:,0],x[:,1]) plt.show()

3.使用K-means 聚类

from sklearn.cluster import KMeans #聚类算法
# 3.使用KM 进行聚类 y_pred = KMeans(n_clusters=4).fit_predict(x)

4.聚类后 看散点图

# 4.给颜色,再看散点图 plt.scatter(x[:,0],x[:,1],c=y_pred) #用每个点来分配颜色 plt.show()

5.模型评估

#5 模型评估 # 簇 内越小越好,簇 间 越大越好 print(calinski_harabasz_score(x,y_pred))

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询