本文主要是介绍【聚类算法】DBSCAN详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
目录
- 定义
- 计算步骤
- 代码演示
- 总结
定义
今天,我们一起学习聚类算法分享章节中中的最后一类 —— 密度聚类算法。而在密度聚类里面最具代表性的是DBSCAN。(Density-Based Spatial Clustering of Applications with Noise)对应的中文翻译就是基于密度的噪点空间聚类法。名字是不是有点拗口?其实没关系。你只要记住它是基于点密度的聚类方法就可以了。
在学习这个算法之间,我们需要先定义几个基本概念:
- 邻域:对于任意样本点i和给定距离r,i的e邻域是指所有与样本xi距离不大于e的样本集合,也就是下图中下x1的圈;
- 核心对象:若样本xi的r邻域中至少包含MinPts个样本,则xi是一个核心对象,也就是点x1;
- 密度直达:若样本j在样本i的r邻域中,且i是核心对象,则称样本j由样本i密度直达,相当于x1圈中的点;
- 密度可达:对于样本i和样本j,如果存在样本序列p1,p2,…,pn,其中p1=i,pn=j,并且pm由pm-1密度直达,则称样本i与样本j密度可达;
- 密度相连:对于样本i和样本j,若存在样本k使得i与j均由k密度可达,则称i与j密度相连
这里稍微总结一下。假设x1~x4是我们的核心。那么每一个以核心为圆心,半径是r的圈内的点就相对于圆心密度直达。核心与核心之间相互链接,他们共同组成一个密度可达的样本。
计算步骤
还在蒙蔽中?没关系,我们尝试通过计算步骤去理解这个算法。
- 首先从数据集中找任意一点a作为核心,然后找到与这个点距离小于或等于本经r的所有点。若这些点的总数小于预设值min_samples时,我们则认为a点是噪音点。若a点的种输大于预设值,我们则认为这是一个簇。并设置a点为簇的质心
- 然后依次访问圆内的点。如果他们没有被分配,则把他们归为第一步生成的簇。若刚好这个点也是质心,则把两个簇合并。知道簇内没有更多的点为止
- 重复遍历1,2步,直到所有的点都被遍历过,并把他们划分是某个簇还是不属于任何簇为止
代码演示
介绍完这个算法的概念和计算步骤之后。下面又到了程序员最喜欢也最刺激的部分了,coding。DBSCAN在Scikit-learn有成熟的包可以提供给我们使用。同时我们还需要matplotlib来帮助我们画图,以更方便的展现我们的数据。这个代码的例子其实来源于官方的样例,因为我自己写了一下,发现效果展示还不如他们的。所以下面是我讲解官方这段代码的部分。
import numpy as npfrom sklearn.cluster import DBSCAN
from sklearn import metrics
from sklearn.datasets.samples_generator import make_blobs
from sklearn.preprocessing import StandardScaler# 生成样样本数据
centers = [[1, 1], [-1, -1], [1, -1]]
# make_blobs是常用的聚类数据生成类,主要用于生成测试数据并测试模型# n_samples是待生成的样本的总数。# centers表示类别数。# cluster_std表示每个类别的方差
X, labels_true = make_blobs(n_samples=750, centers=centers, cluster_std=0.4)
X = StandardScaler().fit_transform(X)# 计算DBSCAN,半径是0.3,最小包含样本是10#注意:这里就是我们本期内容的学习核心
db = DBSCAN(eps=0.3, min_samples=10).fit(X)
core_samples_mask = np.zeros_like(db.labels_, dtype=bool)
core_samples_mask[db.core_sample_indices_] = True
labels = db.labels_# 统计簇中labels的数量,这里注意要去除上述所得噪音数据
n_clusters_ = len(set(labels)) - (1 if -1 in labels else 0)print('生成 %d 个簇' % n_clusters_)
print("同质性: %0.3f" % metrics.homogeneity_score(labels_true, labels))
print("完整性: %0.3f" % metrics.completeness_score(labels_true, labels))
print("V-measure: %0.3f" % metrics.v_measure_score(labels_true, labels))
print("调整兰特指数 %0.3f"% metrics.adjusted_rand_score(labels_true, labels))
print("调整后的相互信息: %0.3f"% metrics.adjusted_mutual_info_score(labels_true, labels))
print("轮廓系数: %0.3f"% metrics.silhouette_score(X, labels))# 展示样本图,下面这段可以在Jupyter另外一个cell执行
import matplotlib.pyplot as plt# 用噪音替代黑点
unique_labels = set(labels)
colors = plt.cm.Spectral(np.linspace(0, 1, len(unique_labels)))
for k, col in zip(unique_labels, colors):if k == -1:col = 'k'class_member_mask = (labels == k)xy = X[class_member_mask & core_samples_mask]plt.plot(xy[:, 0], xy[:, 1], 'o', markerfacecolor=col,markeredgecolor='k', markersize=14)xy = X[class_member_mask & ~core_samples_mask]plt.plot(xy[:, 0], xy[:, 1], 'o', markerfacecolor=col,markeredgecolor='k', markersize=6)plt.title('DBSCAN生成了 %d 个簇' % n_clusters_)
plt.show()
其实整个步骤非常简单,就是先利用make_blobs生成我们需要的数据。然后通过DBSCAN去聚类我们的数据,最后生成样本图展示。有趣的是,你们可以尝试调整半径和最小质心数。看看最后的结果会怎么样?
总结
DBSCAN是一个聚类算法。所以它属于非监督学习。与层次聚类或者K-Means又不一样。他是根据样本的密度来聚类数据。但是他同样是存在优缺点的。
优点
- 不需要开发者先验的划分簇的个数
- 可以划分复杂形状的簇
- 可以有效识别出噪音点,异常点。所以他对数据异常点不敏感
缺点
- 运行效率比K-Means要慢一点,但还是可以执行较大的数据集
- 需要预先设定eps=和min_samples,这个需要大量的调整和实验
点我算法分享
参考笔记
http://scikit-learn.sourceforge.net/stable/modules/generated/sklearn.cluster.dbscan.html
https://zh.wikipedia.org/wiki/DBSCAN
https://www.jianshu.com/p/e594c2ce0ac0
这篇关于【聚类算法】DBSCAN详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!