数据挖掘5-K近邻

2024-06-20 15:38
文章标签 数据挖掘 近邻

本文主要是介绍数据挖掘5-K近邻,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

K近邻算法

  下图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。

  K 最近邻 (k-Nearest Neighbor,KNN) 分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一,1968年由 Cover 和 Hart 提出。该方法的思路是:如果一个样本在特征空间中的 k 个最相似即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。KNN 算法中,所选择的邻居都是已经正确分类的对象。该方法在分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 K 最近邻 (k-Nearest Neighbor,KNN) 分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的 k 个最相似即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。KNN 算法中,所选择的邻居都是已经正确分类的对象。该方法在分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。

  KNN 算法本身简单有效,它是一种 lazy-learning 算法,分类器不需要使用训练集进行训练,训练时间复杂度为0。KNN 分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中文档总数为 n,那么 KNN 的分类时间复杂度为O(n)。

  KNN 方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。由于 KNN 方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN 方法较其他方法更为适合。

  K 近邻算法使用的模型实际上对应于对特征空间的划分。K 值的选择,距离度量和分类决策规则是该算法的三个基本要素:

  1. K 值的选择会对算法的结果产生重大影响。K值较小意味着只有与输入实例较近的训练实例才会对预测结果起作用,但容易发生过拟合;如果 K 值较大,优点是可以减少学习的估计误差,但缺点是学习的近似误差增大,这时与输入实例较远的训练实例也会对预测起作用,是预测发生错误。在实际应用中,K 值一般选择一个较小的数值,通常采用交叉验证的方法来选择最有的 K 值。随着训练实例数目趋向于无穷和 K=1 时,误差率不会超过贝叶斯误差率的2倍,如果K也趋向于无穷,则误差率趋向于贝叶斯误差率。
  2. 该算法中的分类决策规则往往是多数表决,即由输入实例的 K 个最临近的训练实例中的多数类决定输入实例的类别
  3. 距离度量一般采用 Lp 距离,当p=2时,即为欧氏距离,在度量之前,应该将每个属性的值规范化,这样有助于防止具有较大初始值域的属性比具有较小初始值域的属性的权重过大。

  该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的 K 个邻居中大容量类的样本占多数。 该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的 K 个邻居中大容量类的样本占多数。 

  该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的 K 个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的 K 个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。

  KNN 算法不仅可以用于分类,还可以用于回归。通过找出一个样本的 K 个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成正比。

  实现 K 近邻算法时,主要考虑的问题是如何对训练数据进行快速  K 近邻搜索,这在特征空间维数大及训练数据容量大时非常必要。

最近邻搜索:Nearest Neighbor Search





在进行图像搜索时,要求系统返回与查询图片相似的图像集,这里头涉及高维空间的数据查询问题。排序和寻找是计算机技术的基础算法,最基本的是对一维数组排序和在一维数组中寻找元素。在图像检索系统中面对的是大规模的高维数据,对查询算法的效率要求更高,这里介绍是一种基本的查询算法--最近邻(Nearest Neighbor )或K近邻(KNN)。最近邻搜索(Nearest Neighbor Search):最近邻查询是最重要的空间查询之一,也是文本着重考虑的类型。其定义是:给定一个查询点q和一个距离度量(有欧几里德距离、曼哈顿距离等),一个最近邻查询找出一个离查询点q最近的空间数据对象。它的一般化形式为k(k>=1)最近邻查询,定义为:给定一个查询点q,一个正整数k以及一个距离度量,则一个k最邻近查询找出k个离q最近的空间数据对象。如上图所示,查询对象q的k邻近1NN(q)={a},4NN(q)={a,b,c,d}。

最近邻规则也是一种分类方法,如上图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。

用原始的穷举法可实现最近邻查询,结果如上图(K=3),Matlab代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
function knn_2d_demo()
% KNN 2D Demo
dim = 2;
num = 40;
X = randi(100,num,dim);
Q = randi(100,1,dim);
K = 3;
[indexs distances] = KNNS(X,Q,K);
figure
hold on
plot(X(:,1),X(:,2), 'b.' )
plot(X(indexs,1),X(indexs,2), 'ro' )
plot(Q(1),Q(2), 'g*' )
plot(Q(1),Q(2), 'co' , 'MarkerSize' ,ceil(distances(K))*6)
hold off
function [indexs distances] = KNNS(X,Q,K)
% X -- 数据点集 N×D
% Q -- 查询数据 N×D
% K -- 查询近邻数
% indexs -- KNN 点集索引
% distances -- 查询点同KNN点的距离
[n,dim] = size(X);
query_mat = repmat(Q,n,1);
dist_list = sqrt( sum ((X - query_mat).^2,2));
[value, index] = sort (dist_list);
indexs = index(1:K);
distances = value(1:K);

当数据点数目增大时,穷举法的计算量会以指数级别增长。1977年Friedman提出的k-d树快速搜索算法[Friedman & Bentley s.t. '77]可以快速找到最近邻,但当特征点描述符多于10维时其效率就很低,并不比穷举法效率高。1997年Beis和Lowe提出了一种近似算法称为Best-Bin-First(BBF)[Beis & Lowe'99] ,这种近似算法能够以很高的概率找到最近邻点。

k-d树(K-dimension tree)是二叉检索树的扩展,k-d tree的每一层将空间分成两个。树的顶层结点按一维进行划分,下一层结点按另一维进行划分,以此类推,各个维循环往复。划分要使得在每个结点,存储在子树中大约一半的点落入一侧,而另一半落入另一侧。

参照上图,用二维(K=2)数据的实例来说明K-D Tree的建立:

1. 根结点选择:将数据按x维排序,以中值所在数据点(5,8)作为根结点,然后以此结点为参考作第一次分裂;

注意,这里涉及两种基本操作:

(1)选择分裂(split)的维度,即在哪一维数据上将原数据分为两半,有两种做法:

一是取  当前层数n mod 数据维数K:如第一层时,n = 0,n mod K = 0,即在第一维数据上寻找分裂点。

二是取 方差最大的那维数据,即在各维数据上分别计算方差,方差最大者数据越分散,故在该维数据上寻找分裂点。

(2)在分裂维度上选择分裂点:通常是取该数据的中值点。

2. 分裂:(父)根结点p的分裂维split_dim = 0,即在x维上分裂,第split_dim分量小于p[split_dim]的放于左侧,否之放在右侧。对左右侧分别确定分裂维、分裂点,循环,直至最后。

照以上步骤,Matlab中递归实现如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
function tree_output = kdtree_create(X,parent_number,split_dimension)
global tree_cell;
global node_number;
if nargin ==1
     % add the index values to the last column
     % easy way to keep track of them
     [n,d] = size(X);
     X(:,d+1)=1:n';
     node_number=1;
     split_dimension=0;
     parent_number=0;
     % intialize the node
     Node. type = 'node' ;
     Node.left=0;
     Node.right=0;
     Node.nodevector=zeros(1,d);
     Node.hyperrect=[zeros(1,d);zeros(1,d)];
     Node.numpoints=0;
     Node.index=0;
     Node.parent=0;
     Node.splitval=0;
     % initilaze the tree
     hold_cell_data(1:n)=Node;
     tree_cell=hold_cell_data;
     clear hold_cell_data;
else
     [n,d] = size(X(:,1:end-1));
     node_number=node_number+1;
     split_dimension=split_dimension+1;
end
if n==0
     fprintf( 'Error: 0 points in node, causing endless loop, press ctrl-C.\n' );
end
assigned_nn=node_number; % assigned node number for this particular iteration
% set assignments to current node
tree_cell(assigned_nn). type = 'node' ;
tree_cell(assigned_nn).parent=parent_number;
% if there is 1 datapoint left, make a leaf out of it
if n==1
     tree_cell(assigned_nn).left=[];
     tree_cell(assigned_nn).right=[];
     tree_cell(assigned_nn).nodevector=X(:,1:end-1);
     tree_cell(assigned_nn).hyperrect=[X(:,1:end-1);X(:,1:end-1)];
     tree_cell(assigned_nn). type = 'leaf' ;
     tree_cell(assigned_nn).numpoints=1;
     tree_cell(assigned_nn).index=X(:,end);
     tree_output = assigned_nn;
     return ;
end
% if there are more than 1 data points left calculate some of the node
% values
tree_cell(assigned_nn).numpoints = n;
a = min(X(:,1:end-1)); b = max(X(:,1:end-1));
tree_cell(assigned_nn).hyperrect = [a; b];
% if the feature vectors happen to be the same then leaf again
if a==b tree_cell(assigned_nn). type = 'leaf' ; end
% recursively build rest of tree
% if the node is a leaf then assign the index and node vector
if (strcmp(tree_cell(assigned_nn). type , 'leaf' ))
     tree_cell(assigned_nn).nodevector = mean(X(:,1:end-1));
     tree_cell(assigned_nn).index=X(:,end);
else
     % if it is not a leaf
     % figure out which dimension to split (going in order)
     tree_cell(assigned_nn).splitdim=mod(split_dimension,d)+1;
     % figure out the median value to cut this dimension
     median_value=median(X(:,tree_cell(assigned_nn).splitdim));
     % find out all the values that are lower than or equal to this median
     i= find (X(:, tree_cell(assigned_nn).splitdim)<=median_value);
     % if there are more than 2 points
     if (tree_cell(assigned_nn).numpoints>2)
         % as there more than two points
         [max_val,max_pos]=max(X(i, tree_cell(assigned_nn).splitdim));
         % recurse for everything to the left of the median
         tree_cell(assigned_nn).left = kdtree_create(X([i(1:max_pos-1);i(max_pos+1:end)], <img src= "http://blog.youtueye.com/wp-includes/images/smilies/icon_smile.gif" alt= ":)" class= "wp-smiley" > ,  assigned_nn,split_dimension);
         % recurse for everything to the right of the median
         if (size(X,1)>size(i,1))
             tree_cell(assigned_nn).right = kdtree_create(X( find (~(X(:, tree_cell(assigned_nn).splitdim)<=median_value)), <img src= "http://blog.youtueye.com/wp-includes/images/smilies/icon_smile.gif" alt= ":)" class= "wp-smiley" > , assigned_nn,split_dimension);
         else
             tree_cell(assigned_nn).right =[];
         end
     else
         % if there are only two data points left
         % choose the left value as the median
         % make the right value as a leaf
         % leave the left leaf blank
         [max_val,max_pos]=max(X(i, tree_cell(assigned_nn).splitdim));
         if (i(max_pos)==1); min_pos=2; else min_pos=1; end
         tree_cell(assigned_nn).left = [];
         tree_cell(assigned_nn).right = kdtree_create(X(min_pos,:), assigned_nn,split_dimension);
     end
     % assign the median vector to this node
     tree_cell(assigned_nn).nodevector = X(i(max_pos),1:end-1);
     tree_cell(assigned_nn).index=X(i(max_pos),end);
     tree_cell(assigned_nn).splitval=X(i(max_pos), tree_cell(assigned_nn).splitdim);
end
% final clean up
if nargin ==1
     % As all computation is complete then return tree structure
     % and clear other data
     tree_output=tree_cell;
     clear global tree_cell;
else
     % otherwise output the assigned_nn for storage in the parent
     tree_output=assigned_nn;
end

其划分2-D平面的过程如下:

k-d树的数据结构决定了能够减少查询量,因为很多结点在查询时不参与比较。下面通过实例说明最近邻(K=1)的查询过程:

1. 以q(2,6)做为查询点,在KD Tree上自顶向下进行比较。

2. 在结点p处,如果q(split_dim)<=p(split_dim),q进入p的左子树比较;否则,进入右子树比较;比较及游走规则同前,循环,直至最后。

如此,最终得最近邻点为(1,4),如下图:

真实的最近邻点应该为(2,7),以上查询步骤似乎还缺少一步:

3.  回溯搜索路径:

将步骤(2)得到的近邻点c加入队列,并计算距离dist,记录best_dist = dist;

判断以结点c为圆心,best_dist为半径的区域是否与其他父结点的边界相交,无则终止,c即为最近邻;

否则,记录这些相交的父结点,跳转到相应区域比较,并计算dist,如果dist<best_dist,best_dist = dist,重复以上步骤。

修正后的结果如下:

另一个实例:

维数灾难:

传统的KNN查询主要方法是基于空间划分的算法——tree类似算法,如R-tree,Kd-tree,SR-tree。这种算法返回的结果是精确的,但是这种算法在高维数据集上的时间效率并不高。实验[Weber & Schek s.t '98]指出维度高于10之后,基于空间划分的算法时间复杂度反而不如线性查找。

扩展: Approximate Nearest Neighbor

k nearest neighbors

r nearest neighbors

(c,r) nearest neighbors

参考资料:

http://www.cs.haifa.ac.il/~rita/ml_course/lectures/KNN.pdf

 KNN Demo

SIFT特征点匹配与消除错配:BBF,RANSAC

 k-d tree算法的研究

 KD Tree Demo

Introduction to kd-trees (推荐)

[Lee & Wong '77]  Lee, D. T.; Wong, C. K. (1977). "Worst-case analysis for region and partial region searches in multidimensional binary search trees and balanced quad trees". Acta Informatica 9 (1): 23–29.[PDF]

[Beis & Lowe'99]  Jeffrey S. Beis and David G. Lowe, "Shape indexing using approximate nearest-neighbour search in high-dimensional spaces," Conference on Computer Vision and Pattern Recognition, Puerto Rico (June 1997), pp. 1000-1006. [PDF];

[Weber & Schek s.t '98]  Roger Weber, Hans-Jörg Schek, Stephen Blott: A Quantitative Analysis and Performance Study for Similarity-Search Methods in High-Dimensional Spaces. VLDB 1998: 194-205.[PDF]

[Friedman & Bentley s.t. '77] J. H. Friedman, J. L. Bentley, and R.A. Finkel. Analgorithm for finding best matches in logarithmic ex-pected time. ACM Transactions on Mathematical Soft-ware, 3(3):209{226, September 1977.[PDF]

[PDF] Approximate Best Bin First k-d. Tree All Nearest Neighbor Search with Incremental Updates. Jan Kybic, Ivan Vnucko,2010

资源:

Kdtree implementation in matlab (本文代码参考)

tutorial-KNN

http://www.cs.umd.edu/~mount/ANN/
http://www.cs.ubc.ca/~mariusm/index.php/FLANN/FLANN

https://kdtree.googlecode.com/svn-history/r18/kdtree/

 来源:http://blog.csdn.net/pi9nc/article/details/9068437

这篇关于数据挖掘5-K近邻的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1078546

相关文章

读懂《机器学习实战》代码—K-近邻算法

一,K近邻算法概念 K近邻算法即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。KNN 算法是一种 lazy-learning 算法,分类器不需要使用训练集进行训练,训练时间复杂度为0。KNN 分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中文档总数为 n,

EI会议推荐-第二届大数据与数据挖掘国际会议(BDDM 2024)

第二届大数据与数据挖掘国际会议(BDDM 2024) 1、基本信息 大会官网:http://www.icbddm.org/ 官方邮箱:icbddm@163.com 主办方:武汉纺织大学 会议时间:2024年12月13日-12月15日 会议地点:湖北武汉 02征稿主题: 包含(但不限于)以下领域: 大数据:大数据分析、人工智能、大数据网络技术、大数据搜索算法和系统、分布式和点对

【数据分析案例】使用机器学习做游戏留存数据挖掘的一种尝试

案例来源:@深极智能 案例地址: https://zhuanlan.zhihu.com/p/31213553 1. 目标:针对K游戏数据,预测玩家留存情况,并找出影响留存的因素 2. 数据:玩家id,动作,动作时间戳,玩家关键属性(金币、装备、等级等) 3. 数据清洗: 1)剔除操作数<16的玩家,这类对游戏题材不感兴趣,非目

【校招面经】机器学习与数据挖掘常见面试题整理 part9

八十、SVM的核函数 from:https://blog.csdn.net/lihaitao000/article/details/51173459 SVM核函数包括线性核函数、多项式核函数、径向基核函数、高斯核函数、幂指数核函数、拉普拉斯核函数、ANOVA核函数、二次有理核函数、多元二次核函数、逆多元二次核函数以及Sigmoid核函数. 核函数的定义并不困难,根据泛函的有关理论,只要一种函数

【校招面经】机器学习与数据挖掘常见面试题整理 part8

七十六、t-SNE from:http://www.datakit.cn/blog/2017/02/05/t_sne_full.html t-SNE(t-distributed stochastic neighbor embedding)是用于降维的一种机器学习算法,是由 Laurens van der Maaten 和 Geoffrey Hinton在08年提出来。此外,t-SNE 是一种非

k近邻(kNN)算法的Python实现(基于欧氏距离)

k近邻算法是机器学习中原理最简单的算法之一,其思想为:给定测试样本,计算出距离其最近的k个训练样本,将这k个样本中出现类别最多的标记作为该测试样本的预测标记。 k近邻算法虽然原理简单,但是其泛华错误率却不超过贝叶斯最有分类器错误率的两倍。所以实际应用中,k近邻算法是一个“性价比”很高的分类工具。 基于欧式距离,用Python3.5实现kNN算法: 主程序: from numpy impor

统计学习与方法实战——K近邻算法

K近邻算法 K近邻算法备注k近邻模型算法距离度量 k k k值选择分类决策规则构造KDTree k k k近邻查找范围查询 代码结构总结 K近邻算法 备注 kNN是一种基本分类与回归方法. 多数表决规则等价于0-1损失函数下的经验风险最小化,支持多分类, 有别于前面的感知机算法kNN的k和KDTree的k含义不同KDTree是一种存储k维空间数据的树结构建立空间索引的方法

2015百度机器学习/数据挖掘工程师+自然语言处理工程师笔试题目

1.new 和 malloc 的区别。 new 返回指定类型的指针,并且可以自动计算所需要大小。 比如:    int *p;   p = new int; //返回类型为int* 类型(整数型指针),分配大小为 sizeof(int);    或:    int* parr;   parr = new int [100]; //返回类型为 int* 类型(整数型指针),分配大小为

【机器学习】K近邻(K-Nearest Neighbors,简称KNN)的基本概念以及消极方法和积极方法的区别

引言 K近邻(K-Nearest Neighbors,简称KNN)算法是一种基础的机器学习方法,属于监督学习范畴 文章目录 引言一、K近邻(K-Nearest Neighbors,简称KNN)1.1 原理详述1.1.1 距离度量1.1.2 选择k值1.1.3 投票机制 1.2 实现步骤1.3 参数选择1.4 应用场景1.5 优缺点1.5.1 优点1.5.2 缺点 1.6 k-近邻代

数据挖掘工程师的面试问题与答题思路

一个Java程序可以认为是一系列对象的集合,而这些对象通过调用彼此的方法来协同工作。下面简要介绍下类、对象、方法和实例变量的概念。 对象:对象是类的一个实例,有状态和行为。例如,一条狗是一个对象,它的状态有:颜色、名字、品种;行为有:摇尾巴、叫、吃等。类:类是一个模板,它描述一类对象的行为和状态。方法:方法就是行为,一个类可以有很多方法。逻辑运算、数据修改以及所有动作都是在方法中完成的。实例变量