【机器学习】(5.4)聚类--密度聚类(DBSCAN、MDCA)

2024-08-27 17:08

本文主要是介绍【机器学习】(5.4)聚类--密度聚类(DBSCAN、MDCA),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 密度聚类方法

2. DBSCAN

DBSCAN(Density-Based Spatial Clustering of  Applications with Noise)。一个比较有代表性的基于密度的聚类算法。与划分和层次聚类方法不同,它将簇定义为 密度相连的点的最大集合,能够把具有足够高密度的区域划分为簇,并可在有“噪声”的数据中发现任意形状的聚类。

2.1 DBSCAN算法的若干概念

2.2 DBSCAN算法流程

代码中运用了并查集,并查集详解 ——图文解说,简单易懂(转)_mjiansun的博客-CSDN博客 

import numpy as np
import matplotlib.pyplot as plt
import matplotlib.colors
import sklearn.datasets as ds
from sklearn.preprocessing import StandardScaler
import mathdef expand(a, b):d = (b - a) * 0.1return a-d, b+ddef euler_distance(point1: np.ndarray, point2: list) -> float:"""计算两点之间的欧拉距离,支持多维"""distance = 0.0for a, b in zip(point1, point2):distance += math.pow(a - b, 2)return math.sqrt(distance)class UnionFindSet(object):def __init__(self, data_num = 0):self.data_num = data_numself.prev = {}self.init_uf()def init_uf(self):for i in range(self.data_num):self.prev[i] = idef union_data(self, x, y):x_root = self.find_data(x)y_root = self.find_data(y)if x_root != y_root:self.prev[y_root] = x_rootdef find_data(self, x):x_root = self.prev[x]while self.prev[x_root] != x_root:x_root = self.prev[x_root]# 路径压缩,不写这部也没事,这里只是为了加速用x_copy = xwhile x_copy != x_root:temp = self.prev[x_copy]self.prev[x_copy] = x_rootx_copy = tempreturn x_rootdef get_uf_set(self):return self.prevclass DBSCAN(object):def __init__(self, eps, min_samples):self.eps = epsself.min_samples = min_samplesdef get_cluster(self, data):eps =self.epsmin_samples = self.min_samplesdata_num, feature_num = data.shapesim = [[] for i in range(data_num)]for i in range(data_num):for j in range(data_num):d = euler_distance(data[i, :], data[j, :])if d < eps:sim[i].append(j)uf = UnionFindSet(data_num)for i in range(data_num):single_data = sim[i]if len(single_data) <= min_samples:continuefor j in single_data:uf.union_data(i, j)cluster_cls = {}cls_num = 0for i in range(data_num):r = uf.find_data(i)if len(sim[i]) <= min_samples:continueif r not in cluster_cls:cls_num += 1cluster_cls[r] = cls_numdata_cls = [0] * data_numfor i in range(data_num):r = uf.find_data(i)if r != i or len(sim[i]) > min_samples:data_cls[i] = cluster_cls[r]return data_clsif __name__ == "__main__":N = 1000centers = [[1, 2], [-1, -1], [1, -1], [-1, 1]]data, y = ds.make_blobs(N, n_features=2, centers=centers, cluster_std=[0.5, 0.25, 0.7, 0.5], random_state=0)data = StandardScaler().fit_transform(data)params = ((0.19, 5), (0.2, 10), (0.2, 15), (0.3, 5), (0.3, 10), (0.3, 15))eps, min_samples = params[0]dbscan = DBSCAN(eps, min_samples)data_cls = dbscan.get_cluster(data)y_hat = np.array(data_cls)core_indices = np.zeros_like(y_hat, dtype=bool)core_indices[np.where(y_hat >= 1)] = Truey_unique = np.unique(y_hat)n_clusters = y_unique.size - (1 if 0 in y_hat else 0)print(y_unique, '聚类簇的个数为:', n_clusters)# plt.subplot(2, 3, i + 1)clrs = plt.cm.Spectral(np.linspace(0, 0.8, y_unique.size))print(clrs)for k, clr in zip(y_unique, clrs):cur = (y_hat == k)if k == 0:plt.scatter(data[cur, 0], data[cur, 1], s=10, c='k')continueplt.scatter(data[cur, 0], data[cur, 1], s=15, c=clr, edgecolors='k')plt.scatter(data[cur & core_indices][:, 0], data[cur & core_indices][:, 1], s=30, c=clr, marker='o',edgecolors='k')x1_min, x2_min = np.min(data, axis=0)x1_max, x2_max = np.max(data, axis=0)x1_min, x1_max = expand(x1_min, x1_max)x2_min, x2_max = expand(x2_min, x2_max)plt.xlim((x1_min, x1_max))plt.ylim((x2_min, x2_max))plt.plot()plt.grid(b=True, ls=':', color='#606060')plt.title(r'$\epsilon$ = %.1f  m = %d,聚类数目:%d' % (eps, min_samples, n_clusters), fontsize=12)plt.tight_layout()plt.subplots_adjust(top=0.9)plt.show()

3. MDCA

MDCA(Maximum Density Clustering Application):将基于密度的思想引入到划分聚类中,使用密度而不是初始质心作为考察簇归属情况的依据,能够自动确定簇数量并发现任意形状的簇。MDCA一般不保留噪声,因此也避免了由于阈值选择不当而造成大量对象丢弃情况。

我是依据参考文献2实现的内容进行的复现,我不清楚是否正确,因为我对分类结果不是很满意,与我的预期有所差别。

3.1 核心思想

1.最大密度点:可用K近邻距离之和的倒数表示密度

2. 密度曲线:根据所有对象与x的欧式距离对数据集重新排序

3. 将密度曲线中第一个谷值之前的数据归为一类,并将其剔除

4. 重复步骤1,2,3直到所有的点都在ρ0之下或者ρ0之上

5. 两个簇Ci和Cj,用最近样本距离作为簇间距离

6. 根据簇间距离阈值d0,判断是否需要合并两类

3.2 代码实战

import os
import numpy as np
import sklearn.datasets as ds
import matplotlib.pyplot as plt
from sklearn.preprocessing import StandardScalerdef expand(a, b):d = (b - a) * 0.1return a-d, b+ddef find_cls(p, y_pred, distance, density_min, cls_num):candidate_indices = np.where(y_pred == 0)[0]cur_p = p[candidate_indices]cur_distance = distance[np.argmax(cur_p), candidate_indices]# 按照到最大密度点的距离从小到大排序cur_distance_sort = np.argsort(cur_distance)cur_curve = cur_p[cur_distance_sort]  # 密度按照离“最高密度”的距离排序ori_indices = candidate_indices[cur_distance_sort]  # 对应到最原始的索引值# plt.plot(cur_distance[cur_distance_sort], cur_curve)# plt.show()if np.max(cur_curve) > density_min:loc = np.where(cur_curve <= density_min)[0]loc_length = len(loc)if loc_length >= 2:for i in range(loc_length - 1):if loc[i + 1] - loc[i] <= 2:breaky_pred[ori_indices[:loc[i+1]]] = cls_numy_pred, cls_num = find_cls(p, y_pred, distance, density_min, cls_num+1)return y_pred, cls_numif __name__ == "__main__":N = 1000centers = [[1, 2], [-1, -1], [1, -1], [-1, 1]]data, y = ds.make_blobs(N, n_features=2, centers=centers, cluster_std=[0.25, 0.25, 0.25, 0.25], random_state=0)# data = StandardScaler().fit_transform(data)max_data = np.max(data)min_data = np.min(data)data = (data - min_data) / (max_data- min_data)# 判断密度时检测周围点的个数k = 3# 最小阈值密度,设置该值主要是使用K近邻距离之和的倒数表示密度,但是这个值怎么选出来暂时不知道density_min = 10000# 最小阈值距离distance_min = 0.008# 样本数,特征数目sample_num, feature_num = data.shape# 预测结果y_pred = np.zeros(sample_num)# p为每个样本的密度p = np.zeros(sample_num)# distance(i, j) 代表第i个样本到第j个样本的距离distance = np.zeros((sample_num,sample_num))# 利用k近邻均值定义密度较好,不会出现很多密度相同的点。如果采用半径内个数的定义方法,可能一块区域会出现很多的类别for i in range(sample_num):distance[i, :] = np.sum((data[i, :] - data)**2, axis=1)# temp_sort = np.sort(distance[i, :])# p[i] = k / np.sum(distance[i, distance[i, :]  <= temp_sort[k]])temp_sort = np.argsort(distance[i, :])p[i] = k / np.sum(distance[i, temp_sort[:k+1]])cls_num = 1# 确定初始的类簇y_pred, cls_num = find_cls(p, y_pred, distance, density_min, cls_num)# 合并距离较近的类while True:flag_1 = 0flag_2 = 0for i in range(1, cls_num):for j in range(i+1, cls_num):a = np.where(y_pred == i)[0]b = np.where(y_pred == j)[0]temp = distance[a, :][:, b]if np.min(temp) <= distance_min:y_pred[y_pred==j] = iy_pred[y_pred > j] = y_pred[y_pred > j] - 1cls_num = cls_num - 1flag_1 = 1flag_2 = 0break #跳出的第二个forif flag_1 == 1: #跳出的第一个forbreakflag_2 = 1if flag_2 == 1: # 跳出的whilebreak# 合并离聚类团较小的散点scatter_indices = np.where(y_pred==0)[0]loc_indices = np.where(y_pred > 0)[0]scatter_cls_distance = distance[scatter_indices,:][:,loc_indices]scatter_cls_min_distance = np.min(scatter_cls_distance, axis=1)scatter_cls_min_indices = np.argmin(scatter_cls_distance, axis=1)a = y_pred[loc_indices[scatter_cls_min_indices]]b = (scatter_cls_min_distance <= distance_min)y_pred[scatter_indices] = y_pred[loc_indices[scatter_cls_min_indices]] * (scatter_cls_min_distance <= distance_min)# 画图y_hat = np.array(y_pred)core_indices = np.zeros_like(y_hat, dtype=bool)core_indices[np.where(y_hat >= 1)] = Truey_unique = np.unique(y_hat)n_clusters = y_unique.size - (1 if 0 in y_hat else 0)print(y_unique, '聚类簇的个数为:', n_clusters)# plt.subplot(2, 3, i + 1)clrs = plt.cm.Spectral(np.linspace(0, 0.8, y_unique.size))print(clrs)for k, clr in zip(y_unique, clrs):cur = (y_hat == k)if k == 0:plt.scatter(data[cur, 0], data[cur, 1], s=10, c='k')continueplt.scatter(data[cur, 0], data[cur, 1], s=15, c=clr, edgecolors='k')plt.scatter(data[cur & core_indices][:, 0], data[cur & core_indices][:, 1], s=30, c=clr, marker='o',edgecolors='k')x1_min, x2_min = np.min(data, axis=0)x1_max, x2_max = np.max(data, axis=0)x1_min, x1_max = expand(x1_min, x1_max)x2_min, x2_max = expand(x2_min, x2_max)plt.xlim((x1_min, x1_max))plt.ylim((x2_min, x2_max))plt.plot()plt.grid(b=True, ls=':', color='#606060')# plt.title(r'$\epsilon$ = %.1f  m = %d,聚类数目:%d' % (1, 1, n_clusters), fontsize=12)plt.tight_layout()plt.subplots_adjust(top=0.9)plt.show()print("end")

3.3 实验结果

3.4 性能比较(个人感觉不太好用,参数太难调了)

  • 优点:
    • 对噪声数据不敏感
    • 不依赖初始数据点的选择
    • 可以完成任意形状的聚类
  • 缺点:
    • 算法复杂,分类速度较慢
    • 需要在测试前确定密度阈值
    • 对于高维数据,距离的度量并不是很好
    • 不适合数据集密度差异较大或整体密度基本相同的情况

参考

1. 并查集详解 ——图文解说,简单易懂(转)_mjiansun的博客-CSDN博客

2. 密度最大值聚类(MDCA) | GitHub

这篇关于【机器学习】(5.4)聚类--密度聚类(DBSCAN、MDCA)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1112260

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件