跟我一起学scikit-learn15:K-近邻算法

2024-06-08 04:58

本文主要是介绍跟我一起学scikit-learn15:K-近邻算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

KNN(K-Nearest Neighbor,K-近邻算法)算法是一种有监督的机器学习算法,可以解决分类问题,也可以解决回归问题。

1.KNN算法原理

K-近邻算法的核心思想是未标记样本的类别,由距离其最近的K个邻居投票来决定。

假设,我们有一个已经标记的数据集,即已经知道了数据集中每个样本所属的类别。此时,有一个未标记的数据样本,我们的任务是预测出这个数据样本所属的类别。K-近邻算法的原理是,计算待标记的数据样本和数据集中每个样本的距离,取距离最近的K个样本。待标记的数据样本所属的类别,就由这K个距离最近的样本投票产生。

假设X_test为待标记的数据样本,X_train为已标记的数据集,算法原理的伪代码如下:

  • 遍历X_train中的所有样本,计算每个样本与X_test的距离,并把距离保存在Distance数组中。
  • 对Distance数组进行排序,取距离最近的K个点,记为X_knn。
  • 在X_knn中统计每个类别的个数,即class0在X_knn中有几个样本,class1在X_knn中有几个样本等。
  • 待标记样本的类别,就是在X_knn中样本数最多的那个类别。
1.KNN算法的优缺点
  • 优点:准确度高,对异常值和噪声有较高的容忍度。
  • 缺点:计算量较大,对内存的需求也较大。从算法原理可以看出来,每次对一个未标记样本进行分类时,都需要全部计算一遍距离。
2.KNN算法的参数

其算法参数是K,参数选择需要根据数据来决定。K值越大,模型的偏差越大,对噪声数据越不敏感,当K值很大时,可能造成模型欠拟合;K值越小,模型的方差就会越大,当K值太小,就会造成模型过拟合。

3.KNN算法的变种

K-近邻算法有一些变种,其中之一就是可以增加邻居的权重。默认情况下,在计算距离时,都是使用相同的权重。实际上,我们可以针对不同的邻居指定不同的权重,如距离越近权重越高。这个可以通过指定算法的weights参数来实现。

另外一个变种是,使用一定半径内的点取代距离最近的K个点。在scikit-learn里,RadiusNeighborsClassifier类实现了这个算法的变种。当数据采样不均匀时,该算法变种可以取得更好的性能。

2.示例:使用KNN算法进行分类

在scikit-learn里,使用K-近邻算法进行分类处理的是sklearn.neightbors.KNeightborsClassifier类。
(1)生成已标记的数据集

from sklearn.datasets.samples_generator import make_blobs
# 生成数据
centers = [[-2,2],[2,2],[0,4]]
X,y = make_blobs(n_samples=60,centers=centers,random_state=0,cluster_std=0.60)

我们使用sklearn.datasets.samples_generator包下的make_blobs()函数来生成数据集,这里生成60个训练样本,这些样本分布在centers参数指定的中心点的周围。cluster_std是标准差,用来指明生成的点分布的松散程度。生成的训练数据集放在变量X里面,数据集的类别标记放在y里面。

我们可以把X和y的值打印出来查看,一个更直观的方法是使用matplotlib库,它可以很容易地把生成的点画出来:

import matplotlib.pyplot as plt
import numpy as np
plt.figure(figsize=(16,10),dpi=144)
c = np.array(centers)
plt.scatter(X[:,0],X[:,1],c=y,s=100,cmap='cool')
plt.scatter(c[:,0],c[:,1],s=100,marker='^',c='orange')
plt.show()

figure4_1.png
这些点的分布情况在坐标轴上一目了然,其中三角形的点即各个类别的中心点。
(2)使用KNeighborsClassifier来对算法进行训练,我们选择的参数是K=5

from sklearn.neighbors import KNeighborsClassifier
k = 5
clf = KNeighborsClassifier(n_neighbors=k)
clf.fit(X,y)

得到的模型如下:

KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',metric_params=None, n_jobs=1, n_neighbors=5, p=2,weights='uniform')

(3)对一个新样本进行预测

X_sample = [0,2]
X_sample = np.array(X_sample).reshape(1, -1)
y_sample = clf.predict(X_sample)
neighbors = clf.kneighbors(X_sample,return_distance=False)

我们要预测的样本是[0,2],使用kneighbors()方法,把这个样本周围距离最近的5个点取出来。取出来的点是训练样本X里的索引,从0开始计算。
注意:kneighbors()接收一个二维数组作为参数,所以X_sample需要变成二维。
(4)把待预测的样本以及和其最近的5个点标记出来

plt.figure(figsize=(16,10),dpi=144)
plt.scatter(X[:, 0], X[:, 1], c=y, s=100, cmap='cool')    # 样本
plt.scatter(c[:, 0], c[:, 1], s=100, marker='^', c='k')   # 中心点
plt.scatter(X_sample[0][0],X_sample[0][1],marker="x", s=100, cmap='cool')  #待预测的点
#预测点与距离最近的5个样本的连线
for i in neighbors[0]:plt.plot([X[i][0],X_sample[0][0]],[X[i][1],X_sample[0][1]],'k--',linewidth=0.6)
plt.show()

figure4_2.png
从上图中可以清楚地看到KNN算法的原理。

3.示例:使用KNN算法进行回归拟合

分类问题的预测值是离散的,我们也可以使用KNN算法对连续区间内的数值进行预测,即进行回归拟合。在scikit-learn里面,使用KNN算法进行回归拟合的实现是sklearn.neighbors.KNeighborsRegressor类。
(1)生成数据集,在余弦曲线的基础上加入了噪声:

import numpy as np
n_dots = 40
X = 5 * np.random.rand(n_dots,1)
y = np.cos(X).ravel()
y += 0.2*np.random.rand(n_dots)-0.1

(2)使用KNeighborsRegressor来训练模型:

from sklearn.neighbors import KNeighborsRegressor
k = 5
knn = KNeighborsRegressor(k)
knn.fit(X,y)

生成的模型如下:

KNeighborsRegressor(algorithm='auto', leaf_size=30, metric='minkowski',metric_params=None, n_jobs=1, n_neighbors=5, p=2,weights='uniform')

可以使用score()方法计算拟合曲线对训练样本的拟合准确性:

knn.score(X,y)
0.9596828473009764

有了模型,接下来就是进行回归拟合。
一个常用的方法是,在X轴上的指定区域生成足够多的点,针对这些足够密集的点,使用训练出来的模型进行预测,得到预测值y_pred,然后在坐标轴上,把所有的预测点连接起来,这样就画出了拟合曲线。
生成足够密集的点并进行预测:

T = np.linspace(0,5,500)[:,np.newaxis]
y_pred = knn.predict(T)

(3)把这些预测点连起来,构成拟合曲线:

plt.figure(figsize=(16,10),dpi=144)
plt.scatter(X,y,c='g',label='data',s=100)
plt.plot(T,y_pred,c='k',label='prediction',lw=4)
plt.axis('tight')
plt.title('KNeighborsRegressor (k = %i)' % k)
plt.show()

最终生成的拟合曲线和训练样本数据如图:
figure4_3.png

4.示例:糖尿病预测

本节使用KNN算法及其变种,对Pima印第安人的糖尿病进行预测。数据来源kaggle.com,网址为:https://www.kaggle.com/uciml/pima-indians-diabetes-database
大家可以自己去下载。

1.加载数据

使用Pandas加载数据:

import pandas as pd
data = pd.read_csv('E:\code\datasets\pima-indians-diabetes\diabetes.csv')
print('dataset shape {}'.format(data.shape))
data.head()

输出如下:

dataset shape (768, 9)
Out[23]:
Pregnancies	Glucose	BloodPressure	SkinThickness	Insulin	BMI	DiabetesPedigreeFunction	Age	Outcome
0	6	148	72	35	0	33.6	0.627	50	1
1	1	85	66	29	0	26.6	0.351	31	0
2	8	183	64	0	0	23.3	0.672	32	1
3	1	89	66	23	94	28.1	0.167	21	0
4	0	137	40	35	168	43.1	2.288	33	1

从打印出的信息可以看到,这个数据集一共有768个样本、8个特征、1个标签(Outcome:0表示没有糖尿病,1表示有糖尿病)。8个特征分别如下:

  • Pregnancies:怀孕的次数
  • Glucose:血浆葡萄糖浓度,采用2小时口服葡萄糖耐量试验测得
  • BloodPressure:舒张压(毫米汞柱)
  • SkinThickness:肱三头肌皮肤褶皱厚度(毫米)
  • Insulin:两个小时血清胰岛素(μU/毫升)
  • BMI:身体质量指数,体重除以身高的平方
  • DiabetesPedigreeFunction:糖尿病血统指数,糖尿病和家庭遗传相关
  • Age:年龄
    我们可以进一步观察数据集里的阳性和阴性样本的个数:
data.groupby('Outcome').size()

输出为:

Outcome
0    500
1    268
dtype: int64

其中,阴性样本500例,阳性样本268例。
接着需要对数据集进行简单处理,把8个特征值分离出来,作为训练数据集,把Outcome列分离出来作为目标值。然后,把数据集划分为训练数据集和测试数据集。

X = data.iloc[:,:8]
Y = data.iloc[:,8]
print('shape of X {}; shape of Y {}'.format(X.shape,Y.shape))
from sklearn.model_selection import train_test_split
X_train,X_test,Y_train,Y_test=train_test_split(X,Y,test_size=0.2)

输出:

shape of X (768, 8); shape of Y (768,)
2.模型比较

分别使用普通的KNN算法、带权重的KNN算法和指定半径的KNN算法对数据集进行拟合并计算评分:

from sklearn.neighbors import KNeighborsClassifier, RadiusNeighborsClassifiermodels = []
models.append(("KNN", KNeighborsClassifier(n_neighbors=2)))
models.append(("KNN with weights", KNeighborsClassifier(n_neighbors=2, weights="distance")))
models.append(("Radius Neighbors", RadiusNeighborsClassifier(n_neighbors=2, radius=500.0)))results = []
for name, model in models:model.fit(X_train, Y_train)results.append((name, model.score(X_test, Y_test)))
for i in range(len(results)):print("name: {}; score: {}".format(results[i][0],results[i][1]))

三种算法的性能如下:

name: KNN; score: 0.6883116883116883
name: KNN with weights; score: 0.6753246753246753
name: Radius Neighbors; score: 0.6233766233766234

带权重的KNN算法,我们选择了距离越近、权重越高。指定半径的KNN算法的半径选择了500。从上面的输出结果可以看出,普通的KNN算法性能最好。问题来了,这个判断准确么?答案是不准确。因为我们的训练样本和测试样本是随机分配的,不同的训练样本和测试样本组合可能导致计算出来的算法准确性是有差异的。我们可以试着多次运行上面的代码,观察输出值是否有变化。

怎么样更准确地对比算法准确性呢?一个方法是,多次随机分配训练数据集和交叉验证数据集,然后求模型准确性评分的平均值。所幸,我们不需要从头实现这个过程,scikit-learn提供了KFold和cross_val_score()函数来处理这种问题:

from sklearn.model_selection import KFold
from sklearn.model_selection import cross_val_score
results = []
for name, model in models:kfold = KFold(n_splits=10)cv_result = cross_val_score(model, X, Y, cv=kfold)results.append((name, cv_result))
for i in range(len(results)):print("name: {}; cross val score: {}".format(results[i][0],results[i][1].mean()))

上述代码中,我们通过KFold把数据集分成10份,其中1份会作为交叉验证数据集来计算模型准确性,剩余的9份作为训练数据集。cross_val_score()函数总共计算出10次不同训练数据集和交叉验证数据集组合得到的模型准确性评分,最后求平均值。这样的评价结果相对更准确一些。
输出结果为:

name: KNN; cross val score: 0.7147641831852358
name: KNN with weights; cross val score: 0.6770505809979495
name: Radius Neighbors; cross val score: 0.6497265892002735
3.模型训练及分析

看起来,还是普通的KNN算法性能更优一些。接下来,我们就使用普通的KNN算法模型对数据集进行训练,并查看对训练样本的拟合情况以及对测试样本的预测准确性情况:

knn = KNeighborsClassifier(n_neighbors=2)
knn.fit(X_train, Y_train)
train_score = knn.score(X_train, Y_train)
test_score = knn.score(X_test, Y_test)
print("train score: {}; test score: {}".format(train_score, test_score))

输出结果为:

train score: 0.8273615635179153; test score: 0.6883116883116883

从这个输出中可以看到两个问题。一是对训练样本的拟合情况不佳,评分才0.82多一些,这说明算法模型太简单了,无法很好地拟合训练样本。二是模型的准确性欠佳,不到69%的预测准确性。我们可以进一步画出学习曲线,证实结论。

from sklearn.model_selection import ShuffleSplit
from common.utils import plot_learning_curve
knn = KNeighborsClassifier(n_neighbors=2)
cv = ShuffleSplit(n_splits=10, test_size=0.2, random_state=0)
plt.figure(figsize=(10, 6))
plot_learning_curve(plt, knn, "Learn Curve for KNN Diabetes", X, Y, ylim=(0.0, 1.01), cv=cv);

figure4_4.png
从图中可以看出来,训练样本评分较低,且测试样本与训练样本距离较大,这是典型的欠拟合现象。KNN算法没有更好的措施来解决欠拟合问题,我们学完本书的其他章节后,可以试着用其他算法(如逻辑回归算法、支持向量机等)来对比不同模型的准确性情况。

4.特征选择及数据可视化

有没有直观的方法,来揭示出为什么KNN算法不是针对这一问题的好模型?一个办法是把数据画出来,可是我们有8个特征,无法在这么高的维度里画出数据,并直观地观察。一个解决办法是特征选择,即只选择2个与输出值相关性最大的特征,这样就可以在二维平面上画出输入特征值与输出值的关系了。

所幸,scikit-learn在sklearn.feature_selection包里提供了丰富的特征选择方法。我们使用SelectKBest来选择相关性最大的两个特征:

from sklearn.feature_selection import SelectKBest
selector = SelectKBest(k=2)
X_new = selector.fit_transform(X, Y)
X_new[0:5]

把相关性最大的两个特征放在X_new变量里,同时输出了前5个数据样本。输出结果为:

array([[148. ,  33.6],[ 85. ,  26.6],[183. ,  23.3],[ 89. ,  28.1],[137. ,  43.1]])

我们可能会好奇,相关性最大的特征到底是哪两个?对比一下本节开头的数据即可知道,它们分别是Glucose(血糖浓度)和BMI(身体质量指数)。血糖浓度和糖尿病的关系自不必说,身体质量指数是反映肥胖程度的指标,从业务角度来看,我们选择出来的2个相关性最高的特征还算合理。好学的读者可能想打破砂锅问到底:SelectKBest到底使用什么神奇的方法选择出了这两个相关性最高的特征呢?这里涉及到一些统计学的知识,感兴趣的读者可参阅下一节内容的延伸阅读。

我们来看看,如果只使用这2个相关性最高的特征的话,3种不同的KNN算法哪个准确性更高:

results = []
for name, model in models:kfold = KFold(n_splits=10)cv_result = cross_val_score(model, X_new, Y, cv=kfold)results.append((name, cv_result))
for i in range(len(results)):print("name: {}; cross val score: {}".format(results[i][0],results[i][1].mean()))

这次使用X_new作为输入,输出如下

name: KNN; cross val score: 0.725205058099795
name: KNN with weights; cross val score: 0.6900375939849623
name: Radius Neighbors; cross val score: 0.6510252904989747

从输出可以看出来,还是普通的KNN模型准确性较高,其准确性也达到了将近73%,与所有特征拿来一块儿训练的准确性差不多。这也侧面证明了SelectKBest特征选择的准确性。

回到目标上来,我们是想看看为什么KNN无法很好地拟合训练样本。现在我们只有2个特征,可以很方便地在二维坐标上画出所有的训练样本,观察这些数据的分布情况:

plt.figure(figsize=(10, 6))
plt.ylabel("BMI")
plt.xlabel("Glucose")
plt.scatter(X_new[Y==0][:, 0], X_new[Y==0][:, 1], c='r', s=20, marker='o');   #画出样本
plt.scatter(X_new[Y==1][:, 0], X_new[Y==1][:, 1], c='g', s=20, marker='^');   #画出样本

figure4_5.png
横坐标是血糖值,纵坐标是BMI值,反映身体肥胖情况。从图中可以看出,在中间数据集密集的区域,阳性样本和阴性样本几乎重叠在一起了。假设现在有一个待预测的样本在中间密集区域,它的阳性邻居多还是阴性邻居多呢?这真的很难说。这样就可以直观地看到,KNN算法在这个糖尿病预测问题上,无法达到很高的预测准确性。

5.拓展阅读

本节首先介绍提高KNN算法运算效率方面的知识,这里只给出一些通用的描述和参考资料,感兴趣的读者可以进一步深入研究。另外,再介绍一下特征选择时,计算相关性大小的SelectKBest()函数背后的统计学知识。

1.如何提高KNN算法的运算效率

根据算法原理,每次需要预测一个点时,我们都需要计算训练数据集里每个点到这个点的距离,然后选出距离最近的k个点进行投票。当数据集很大时,这个计算成本非常高。针对 N N N个样本, D D D个特征的数据集,其算法复杂度为 O ( D N 2 ) O(DN^2) O(DN2)

为了解决这个问题,一种叫K-D Tree的数据结构被发明出来。为了避免每次都重新计算一遍距离,算法会把距离信息保存在一棵树里,这样在计算之前从树里查询距离信息,尽量避免重新计算。其基本原理是,如果A和B距离很远,B和C距离很近,那么A和C的距离也很远。有了这个信息,就可以在合适的时候跳过距离远的点。这样优化后的算法复杂度可降低到 O ( D N l o g ( N ) ) O(DNlog(N)) O(DNlog(N))。感兴趣的读者可参阅论文:Bentley, J.L., Communications of the ACM (1975)。

1989年,另外一种称为Ball Tree的算法,在K-D Tree的基础上对性能进一步进行了优化。感兴趣的读者可以搜索Five balltree construction algorithms来了解详细的算法信息。

2.相关性测试

先通过一个简单的例子来看假设检验问题,即判断假设的结论是否成立或成立的概率有多高。假设,在一个城市随机采样到程序员和性别的关系的数据:
figure4_5_1.png
假设,我们的结论是程序员和性别无关,这个假设称为原假设(null hypothesis)。问:通过我们随机采样观测到的数据,原假设是否成立,或者说原假设成立的概率有多高?

卡方检验(chi-squared test)是检测假设成立与否的一个常用的工具。它的计算公式是:
figure4_5_2.png
其中,卡方检验的值记为 χ 2 {\chi}^{2} χ2 O i {O}_{i} Oi是观测值, E i {E}_{i} Ei是期望值。针对我们的例子,如果原假设成立,即程序员职业和性别无关,那么我们期望的男程序员数量应该为(14/489) * 242=6.928,女程序员数量应该为(14/489) * 247=7.072,同理可得到我们的期望值如下:
figure4_5_3.png
根据卡方检验的公式,可以算出卡方值为:
figure4_5_4.png
算出卡方值后,怎么判断原假设成立的概率是多少呢?这里还涉及到自由度和卡方分布的概念。简单地讲,自由度是(r-1)×(c-1),其中r是行数,c是列数,针对我们的问题,其自由度为1。卡方分布是指,若n个相互独立的随机变量均服从正态分布,则这n个随机变量的平方和构成一新的随机变量,其分布规律称为卡方分布。卡方分布的密度函数和自由度相关,知道了自由度和目标概率,我们就能求出卡方值。

针对我们的问题,可以查表得到,自由度为1的卡方分布,在99%处的卡方值为6.63。我们计算出来的卡方值为7.670。由于7.67>6.63,故有99%的把握可以推翻原假设。换个说法,如果原假设成立,即程序员职业和性别无关,那么我们随机采样到的数据出现的概率将低于1%。我们可以搜索“卡方表”或“Chi Squared Table”找到不同自由度对应的卡方值。

卡方值的大小可以反映变量与目标值的相关性,值越大,相关性越大。利用这一特性,SelectKBest()函数就可以计算不同特征的卡方值来判断特征与输出值的相关性大小,从而完成特征选择。在scikit-learn里,计算卡方值的函数是sklearn.feature_selection.chi2()。除了卡方检验外,还有F值检验等算法,也可以用来评估特征与目标值的相关性。SelectKBest默认使用的就是F值检验算法,在scikit-learn里,使用sklearn.feature_selection.f_classif来计算F值。关于F值相关的资料,感兴趣的读者可以在英文版维基百科上搜索“Fisher’sexact test”,了解更多信息。

这篇关于跟我一起学scikit-learn15:K-近邻算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1041253

相关文章

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

poj 3974 and hdu 3068 最长回文串的O(n)解法(Manacher算法)

求一段字符串中的最长回文串。 因为数据量比较大,用原来的O(n^2)会爆。 小白上的O(n^2)解法代码:TLE啦~ #include<stdio.h>#include<string.h>const int Maxn = 1000000;char s[Maxn];int main(){char e[] = {"END"};while(scanf("%s", s) != EO

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

dp算法练习题【8】

不同二叉搜索树 96. 不同的二叉搜索树 给你一个整数 n ,求恰由 n 个节点组成且节点值从 1 到 n 互不相同的 二叉搜索树 有多少种?返回满足题意的二叉搜索树的种数。 示例 1: 输入:n = 3输出:5 示例 2: 输入:n = 1输出:1 class Solution {public int numTrees(int n) {int[] dp = new int

Codeforces Round #240 (Div. 2) E分治算法探究1

Codeforces Round #240 (Div. 2) E  http://codeforces.com/contest/415/problem/E 2^n个数,每次操作将其分成2^q份,对于每一份内部的数进行翻转(逆序),每次操作完后输出操作后新序列的逆序对数。 图一:  划分子问题。 图二: 分而治之,=>  合并 。 图三: 回溯:

最大公因数:欧几里得算法

简述         求两个数字 m和n 的最大公因数,假设r是m%n的余数,只要n不等于0,就一直执行 m=n,n=r 举例 以18和12为例 m n r18 % 12 = 612 % 6 = 06 0所以最大公因数为:6 代码实现 #include<iostream>using namespace std;/