本文主要是介绍【理解机器学习算法】之Nearest Shrunken Centroid(纯Python),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
从头开始实现最近缩小质心(NSC)分类器涉及理解它如何通过将质心缩小到所有类的总质心方向来修改基本的最近质心方法,有效地执行特征选择。这种方法特别是在微阵列预测分析(PAM)中的应用而闻名。这里,我们将概述算法的简化版本并提供一个基本的Python实现。
最近缩小质心算法的基本步骤
1. **计算质心**:计算训练数据中每个类的质心。
2. **计算总质心**:使用所有训练数据计算总质心,不论类别。
3. **缩小质心**:将每个类的质心调整到总质心方向,有效减少不太有信息量的特征的影响。缩小的程度由阈值参数 \( \delta \) 控制。
4. **分类**:对于一个新样本,计算其到每个缩小质心的距离并分配最近质心的类别。
Python实现
这个实现关注于步骤1、3和4。步骤2(计算总质心)隐含在缩小过程中。我们将假设使用简单的欧几里得距离进行分类和基本的缩小函数。注意,实际的PAM算法涉及更复杂的缩小计算,包括标准差和软阈值。
import numpy as npclass NearestShrunkenCentroid:def __init__(self, shrink_threshold):self.shrink_threshold = shrink_thresholdself.centroids = Noneself.labels = Nonedef fit(self, X, y):"""Fit the model to the data.X is a 2D numpy array of features.y is a 1D numpy array of labels."""self.labels = np.unique(y)centroids = [X[y == label].mean(axis=0) for label in self.labels]overall_centroid = X.mean(axis=0)# Shrink the centroidsself.centroids = np.array([self._shrink(centroid, overall_centroid) for centroid in centroids])def _shrink(self, centroid, overall_centroid):"""Apply shrinkage to the centroid."""diff = centroid - overall_centroidreturn overall_centroid + np.sign(diff) * np.maximum(np.abs(diff) - self.shrink_threshold, 0)def predict(self, X):"""Predict the class labels for the given data.X is a 2D numpy array of features."""distances = np.sqrt(((X[:, np.newaxis, :] - self.centroids) ** 2).sum(axis=2))nearest_centroids = distances.argmin(axis=1)return np.array([self.labels[index] for index in nearest_centroids])# Example usage
if __name__ == "__main__":# Example data: 4 samples with 2 features eachX_train = np.array([[1, 2],[2, 1],[3, 3],[6, 5]])y_train = np.array([0, 0, 1, 1]) # Class labels# New samples to classifyX_test = np.array([[2, 2],[5, 4]])# Create and train the classifierclassifier = NearestShrunkenCentroid(shrink_threshold=0.5)classifier.fit(X_train, y_train)# Predict and print the class of the new samplespredictions = classifier.predict(X_test)print("Predicted classes:", predictions)
在这个实现中:
- `fit` 方法计算每个类和总质心的质心。然后根据指定的阈值应用缩小。
- `_shrink` 方法通过减少质心中每个特征的大小朝向总质心,根据阈值应用实际的缩小。
- `predict` 方法基于最近的缩小质心对新样本进行分类。
这是最近缩小质心分类器的简化版本。在应用程序中使用的实际实现,如基因表达分析,可能涉及额外的步骤以更有效地处理数据的高维度和稀疏性。
NSC(Nearest Shrunken Centroid) vs NC(Nearest Centroid)
关于NC请参看:【理解机器学习算法】之Nearest Centroid(纯Python)-CSDN博客
最近缩小质心(NSC)与最近质心(NC)分类器都是用于分类任务的简单直观方法,但它们在处理特征空间和分类过程方面有所不同。理解这些差异对于选择适合给定数据集或问题的方法至关重要。以下是两者的比较:
最近质心(NC)
基本原理:最近质心分类器通过计算特征空间中每个类的所有样本的质心(平均值)来工作。然后,根据距离度量(通常是欧几里得距离),将新样本分类到最近质心的类。
优点:
- 简单易懂和实现。
- 对类的分布没有假设。
- 在小到中等数据集上效率高。
缺点:
- 在类分布重叠显著的数据集上表现可能较差。
- 对无关特征和异常值敏感,因为所有特征对质心计算贡献相等。
- 由于“维度的诅咒”,在高维数据上不理想。
最近缩小质心(NSC)
基本原理:最近缩小质心是最近质心的扩展,涉及一个额外的“缩小”质心到数据集的总体平均值的步骤。这种缩小有效地减少了不太有信息量的特征的影响,并可以执行隐式特征选择。
优点:
- 减少了噪声或无关特征的影响,可能提高分类准确性。
- 执行隐式特征选择,这在高维空间(如基因表达数据)中可能是有益的。
- 比基本的最近质心分类器更有效地处理重叠的类分布。
缺点:
- 由于额外的缩小步骤,比最近质心更复杂。
- 缩小参数(delta)的选择至关重要,可能会影响性能。
- 在没有进一步的降维技术的情况下,可能仍然难以处理非常高维的数据。
关键差异
特征选择:NSC通过缩小不太有信息量的特征隐式进行特征选择,而NC平等对待所有特征。
鲁棒性:与NC相比,NSC通常对噪声和无关特征更为鲁棒。
复杂性:由于缩小步骤和需要选择适当的缩小参数,NSC更为复杂。
适用性:对于较简单或低维的数据集,可能更倾向于使用NC作为基线模型。相比之下,NSC可能更适合于具有许多特征的数据集,特别是当许多特征可能是无关或噪声时。
在最近缩小质心和最近质心分类器之间的选择取决于您的数据集和手头问题的具体特征。NSC在处理高维数据和减少不太有信息量的特征的影响方面提供了优势,使其在生物信息学等领域特别有用。然而,对于更简单或低维的数据集,直接的最近质心分类器可能就足够了,并且更具计算效率。
这篇关于【理解机器学习算法】之Nearest Shrunken Centroid(纯Python)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!