【聚类算法】DBSCAN详解

2024-04-27 09:38
文章标签 算法 详解 聚类 dbscan

本文主要是介绍【聚类算法】DBSCAN详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

  • 定义
  • 计算步骤
  • 代码演示
  • 总结

定义

今天,我们一起学习聚类算法分享章节中中的最后一类 —— 密度聚类算法。而在密度聚类里面最具代表性的是DBSCAN。(Density-Based Spatial Clustering of Applications with Noise)对应的中文翻译就是基于密度的噪点空间聚类法。名字是不是有点拗口?其实没关系。你只要记住它是基于点密度的聚类方法就可以了。
在学习这个算法之间,我们需要先定义几个基本概念:

  • 邻域:对于任意样本点i和给定距离r,i的e邻域是指所有与样本xi距离不大于e的样本集合,也就是下图中下x1的圈;
  • 核心对象:若样本xi的r邻域中至少包含MinPts个样本,则xi是一个核心对象,也就是点x1;
  • 密度直达:若样本j在样本i的r邻域中,且i是核心对象,则称样本j由样本i密度直达,相当于x1圈中的点;
  • 密度可达:对于样本i和样本j,如果存在样本序列p1,p2,…,pn,其中p1=i,pn=j,并且pm由pm-1密度直达,则称样本i与样本j密度可达;
  • 密度相连:对于样本i和样本j,若存在样本k使得i与j均由k密度可达,则称i与j密度相连

在这里插入图片描述
这里稍微总结一下。假设x1~x4是我们的核心。那么每一个以核心为圆心,半径是r的圈内的点就相对于圆心密度直达。核心与核心之间相互链接,他们共同组成一个密度可达的样本。

计算步骤

还在蒙蔽中?没关系,我们尝试通过计算步骤去理解这个算法。

  • 首先从数据集中找任意一点a作为核心,然后找到与这个点距离小于或等于本经r的所有点。若这些点的总数小于预设值min_samples时,我们则认为a点是噪音点。若a点的种输大于预设值,我们则认为这是一个簇。并设置a点为簇的质心
  • 然后依次访问圆内的点。如果他们没有被分配,则把他们归为第一步生成的簇。若刚好这个点也是质心,则把两个簇合并。知道簇内没有更多的点为止
  • 重复遍历1,2步,直到所有的点都被遍历过,并把他们划分是某个簇还是不属于任何簇为止

代码演示

介绍完这个算法的概念和计算步骤之后。下面又到了程序员最喜欢也最刺激的部分了,coding。DBSCAN在Scikit-learn有成熟的包可以提供给我们使用。同时我们还需要matplotlib来帮助我们画图,以更方便的展现我们的数据。这个代码的例子其实来源于官方的样例,因为我自己写了一下,发现效果展示还不如他们的。所以下面是我讲解官方这段代码的部分。

import numpy as npfrom sklearn.cluster import DBSCAN
from sklearn import metrics
from sklearn.datasets.samples_generator import make_blobs
from sklearn.preprocessing import StandardScaler# 生成样样本数据
centers = [[1, 1], [-1, -1], [1, -1]]
# make_blobs是常用的聚类数据生成类,主要用于生成测试数据并测试模型# n_samples是待生成的样本的总数。# centers表示类别数。# cluster_std表示每个类别的方差
X, labels_true = make_blobs(n_samples=750, centers=centers, cluster_std=0.4)
X = StandardScaler().fit_transform(X)# 计算DBSCAN,半径是0.3,最小包含样本是10#注意:这里就是我们本期内容的学习核心
db = DBSCAN(eps=0.3, min_samples=10).fit(X)
core_samples_mask = np.zeros_like(db.labels_, dtype=bool)
core_samples_mask[db.core_sample_indices_] = True
labels = db.labels_# 统计簇中labels的数量,这里注意要去除上述所得噪音数据
n_clusters_ = len(set(labels)) - (1 if -1 in labels else 0)print('生成 %d 个簇' % n_clusters_)
print("同质性: %0.3f" % metrics.homogeneity_score(labels_true, labels))
print("完整性: %0.3f" % metrics.completeness_score(labels_true, labels))
print("V-measure: %0.3f" % metrics.v_measure_score(labels_true, labels))
print("调整兰特指数 %0.3f"% metrics.adjusted_rand_score(labels_true, labels))
print("调整后的相互信息: %0.3f"% metrics.adjusted_mutual_info_score(labels_true, labels))
print("轮廓系数: %0.3f"% metrics.silhouette_score(X, labels))# 展示样本图,下面这段可以在Jupyter另外一个cell执行
import matplotlib.pyplot as plt# 用噪音替代黑点
unique_labels = set(labels)
colors = plt.cm.Spectral(np.linspace(0, 1, len(unique_labels)))
for k, col in zip(unique_labels, colors):if k == -1:col = 'k'class_member_mask = (labels == k)xy = X[class_member_mask & core_samples_mask]plt.plot(xy[:, 0], xy[:, 1], 'o', markerfacecolor=col,markeredgecolor='k', markersize=14)xy = X[class_member_mask & ~core_samples_mask]plt.plot(xy[:, 0], xy[:, 1], 'o', markerfacecolor=col,markeredgecolor='k', markersize=6)plt.title('DBSCAN生成了 %d 个簇' % n_clusters_)
plt.show()

其实整个步骤非常简单,就是先利用make_blobs生成我们需要的数据。然后通过DBSCAN去聚类我们的数据,最后生成样本图展示。有趣的是,你们可以尝试调整半径和最小质心数。看看最后的结果会怎么样?

总结

DBSCAN是一个聚类算法。所以它属于非监督学习。与层次聚类或者K-Means又不一样。他是根据样本的密度来聚类数据。但是他同样是存在优缺点的。
优点

  • 不需要开发者先验的划分簇的个数
  • 可以划分复杂形状的簇
  • 可以有效识别出噪音点,异常点。所以他对数据异常点不敏感

缺点

  • 运行效率比K-Means要慢一点,但还是可以执行较大的数据集
  • 需要预先设定eps=和min_samples,这个需要大量的调整和实验
    点我算法分享

参考笔记
http://scikit-learn.sourceforge.net/stable/modules/generated/sklearn.cluster.dbscan.html
https://zh.wikipedia.org/wiki/DBSCAN
https://www.jianshu.com/p/e594c2ce0ac0

这篇关于【聚类算法】DBSCAN详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/940154

相关文章

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

OpenHarmony鸿蒙开发( Beta5.0)无感配网详解

1、简介 无感配网是指在设备联网过程中无需输入热点相关账号信息,即可快速实现设备配网,是一种兼顾高效性、可靠性和安全性的配网方式。 2、配网原理 2.1 通信原理 手机和智能设备之间的信息传递,利用特有的NAN协议实现。利用手机和智能设备之间的WiFi 感知订阅、发布能力,实现了数字管家应用和设备之间的发现。在完成设备间的认证和响应后,即可发送相关配网数据。同时还支持与常规Sof

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

poj 3974 and hdu 3068 最长回文串的O(n)解法(Manacher算法)

求一段字符串中的最长回文串。 因为数据量比较大,用原来的O(n^2)会爆。 小白上的O(n^2)解法代码:TLE啦~ #include<stdio.h>#include<string.h>const int Maxn = 1000000;char s[Maxn];int main(){char e[] = {"END"};while(scanf("%s", s) != EO

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

6.1.数据结构-c/c++堆详解下篇(堆排序,TopK问题)

上篇:6.1.数据结构-c/c++模拟实现堆上篇(向下,上调整算法,建堆,增删数据)-CSDN博客 本章重点 1.使用堆来完成堆排序 2.使用堆解决TopK问题 目录 一.堆排序 1.1 思路 1.2 代码 1.3 简单测试 二.TopK问题 2.1 思路(求最小): 2.2 C语言代码(手写堆) 2.3 C++代码(使用优先级队列 priority_queue)