SOM网络2: 代码的实现

2023-12-09 04:59
文章标签 代码 实现 网络 som

本文主要是介绍SOM网络2: 代码的实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

SOM自组织映射神经网络的原理,详见博客:SOM网络1:原理讲解

训练的主函数

train_SO代码如下:

def train_SOM(X,                                                  # 输出节点行数Y,                                                  # 输出节点列数N_epoch,                                            # epochdatas,                                              # 训练数据(N x D)  N个D维样本init_lr=0.5,                                        # 初始化学习率  lrsigma = 0.5,                                        # 初始化 sigma 用来更新领域节点权重dis_func = euclidean_distance,                      # 距离公式  默认欧拉距离neighborhood_func = gaussion_neighborhood,          # 邻域节点权重公式g  默认高斯函数init_weight_fun=None,                               #初始化权重函数seed=10):  			# 获取输入的特征维度N,D =np.shape(datas)# 训练的步数N_steps =N_epoch*N#对权重进行初始化rng = np.random.RandomState(seed)if init_weight_fun is None:weights =rng.rand(X,Y,D)*2-1                            #随机初始化weights /=np.linalg.norm(weights,axis=-1,keepdims=True) #标准化else:weights = init_weight_fun(X,Y,datas)                       # 一般使用PCA初始化

PCA 初始化权重

def weights_PCA(X,Y,data):N,D=np.shape(data)weights=np.zeros([X,Y,D])pc_value,pc=np.linalg.eig(np.cov(np.transpose(data)))   # pc_vale为特征值,pc 为特征向量 DXD维pc_order=np.argsort(-pc_value)  # 特征值从大到小排序,并返回Index# 对W:[X,Y,D]进行初始化for i,c1 in enumerate(np.linspace(-1,1,X)):for j,c2 in enumerate(np.linsapce(-1,1,Y)):weights[i,j]=c1*pc[pc_order[0]]+c2*pc[pc_order[1]]   #利用最大的2个特征值对应的特征向量加权组合成i,j位置的D维表征向量	

完整的训练代码

def train_SOM(X,                                                  # 输出节点行数Y,                                                  # 输出节点列数N_epoch,                                            # epochdatas,                                              # 训练数据(N x D)  N个D维样本init_lr=0.5,                                        # 初始化学习率  lrsigma = 0.5,                                        # 初始化 sigma 用来更新领域节点权重dis_func = euclidean_distance,                      # 距离公式  默认欧拉距离neighborhood_func = gaussion_neighborhood,          # 邻域节点权重公式g  默认高斯函数init_weight_func=weights_PCA,                        #初始化权重函数seed=10):  			# 获取输入的特征维度N,D =np.shape(datas)# 训练的步数N_steps =N_epoch*N#对权重进行初始化rng = np.random.RandomState(seed)if init_weight_func is None:weights =rng.rand(X,Y,D)*2-1                            #随机初始化weights /=np.linalg.norm(weights,axis=-1,keepdims=True) #标准化else:weights = init_weight_fun(X,Y,datas)                       # 一般使用PCA初始化for n_epoch in range(N_epoch):print("Epoch %d" %(n_epoch+1))#打乱样本次序index=rng.permulation(np.arange(N))for n_step,_id in enumerate(index):# 取一个样本x=datas[_id]#计算learning rate (eta)t=N*n_epoch + n_stepeta=get_learning_rate(init_lr,t,N_steps)#计算样本距离输出的每个节点的距离,并获取激活点的位置winner=get_winner_index(x,weights,dis_func)#根据激活点的位置计算临近点的权重   随着迭代的进行sigma也需要不断减少new_sigma=get_learning_rate(sigma,t,N_steps)  # sigma 更新的方式和学习率一样g=neighborhood_fun(X,Y,winner,new_sigma) g=g*eta#进行权重的更新weights =  weights + np.expand_dims(g,-1)*(x-weights)    # 打印量化误差print("quantization_error=%.4f" %(get_quantization_error(data,weights))) return weights#计算学习率
def get_learning_rate(lr,t,max_steps):  # t当前的steps   max_steps=N x epoch  (N样本数)		return lr/(1+t/(max_steps/2))	# 获取激活(获胜点)节点的位置,与x距离最小的输出节点位置
def get_winner_index(x,w,dis_func=euclidean_distance):# 计算输入样本和各个节点的距离dis = dis_func(x,w)#找到距离最小的位置index=np.where(dis ==np.min(dis))return (index[0][0],index[1][0])#利用高斯距离法计算临近点的权重
# X,Y模板大小,c中心点的位置  def gaussion_neighborhood(X,Y,c,sigma)xx,yy=np.meshgrid(np.arange(X),np.arange(Y))d=2*sigma*sigmaax=np.exp(-np.power(xx-xx.T[c],2)/d)ay=np.exp(-np.power(yy-yy.T[c],2)/d)return (ax*ay).T# 计算欧式距离
def euclidean_distance(x,w):dis=np.expand_dims(x,axis=(0,1))-w   # x:D w:[X,Y,D]  因此需要增加两维 x:D->x:[1,1,D]return np.linalg.norm(dis,axis=-1)                   # 输出[X,Y] 二范数 即为欧拉距离# 特征标准化 (x-mu)/std
def feature_normalization(data):mu=np.mean(data,axis=0,keepdims=True)sigma=np.std(data,axis=0,keepdims=True)return (data-mu)/sigmadef get_U_Matrix(weights):X,Y,D=np.shape(weights)um=na.nan * np.zeros((X,Y,8))  #8 领域ii=[0 ,-1,-1,-1,0,1,1, 1]jj=[-1,-1, 0, 1,1,1,0,-1]for x in range(X):for y in range(Y):w_2=weights[x,y]for k,(i,j) in enumerate(zip(ii,jj)):if(x+i >=0 and x+i<X and y+j>=0 and y+j <Y):w_1=weights[x+i,y+j]um[x,y,k]=np.linalg.norm(w_1-w_2)um=np.nansum(um,axis=2)return um/um.max()#计算量化误差   计算每个样本点和映射点之间的平均距离
def get_quantization_error(data,weights):w_x,w_y=zip(*[get_winner_index(d,weights) for d in datas])error=datas-weights[w_x,w_y]             # 数据域聚类中心的距离error=np.linalg.norm(error,axis=-1)  return np.mean(error)

训练完成后,返回输出节点的weights,维度为 [ X , Y , D ] [X,Y,D] [X,Y,D], 相当于固化了模型的权重weights, weights表征了当前的训练样本。

测试

if __name__ == "__main__":# seed 数据展示columns=['area','perimeter','compactness','length_kernel','width_kernel','asymmetry_coefficient','length_kernel_groove','target']data = pd.read_csv('seeds_dataset.txt',names=columns,sep='\t+',engine='python')labs=data['target'].valueslab_names={1:'Kama',2:'Rosa',3:'Canadian'}datas=data[data.columns[:-1]].valuesN,D=np.shape(datas)print(N,D)# 对训练数据进行标准化datas = feature_normalization(datas)#SOM的训练weights=train_SOM()X=9,Y=9,N_epoch=2,datas=datas,sigma=1.5,init_weight_func=weights_PCA)# 获取UMAP  用于可视化UM=get_U_Matrix(weights)plt.figure(figure=(9,9))plt.pcolor(UM.T,cmap='bone_r')  #plotting the distance map as backgroundplt.colorbar()

测试数据
在这里插入图片描述
U_Matrix
在这里插入图片描述

  • 颜色越深说明与邻近点的关系越强烈,颜色越强说明与邻近点的关系越不强烈。

测试分类的效果

```python
if __name__ == "__main__":# seed 数据展示columns=['area','perimeter','compactness','length_kernel','width_kernel','asymmetry_coefficient','length_kernel_groove','target']data = pd.read_csv('seeds_dataset.txt',names=columns,sep='\t+',engine='python')labs=data['target'].valueslab_names={1:'Kama',2:'Rosa',3:'Canadian'}datas=data[data.columns[:-1]].valuesN,D=np.shape(datas)print(N,D)# 对训练数据进行标准化datas = feature_normalization(datas)#SOM的训练weights=train_SOM()X=9,Y=9,N_epoch=2,datas=datas,sigma=1.5,init_weight_func=weights_PCA)# 获取UMAP  用于可视化UM=get_U_Matrix(weights)plt.figure(figure=(9,9))plt.pcolor(UM.T,cmap='bone_r')  #plotting the distance map as backgroundplt.colorbar()# 查看分类的效果markers=['o','s','D']colors =['C0','C1','C2']for i in range(N):x =datas[i]w=get_winner_index(x,weights)i_lab=labs[i]-1plt.plot(w[0]+.5,w[1]+.5,markers[i_lab],markerfacecolor='None'markeredgecolor=colors[i_lab],markersize=12,markeredgewidth=2)plt.show()	  

在这里插入图片描述

这篇关于SOM网络2: 代码的实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/472552

相关文章

使用Python实现一个优雅的异步定时器

《使用Python实现一个优雅的异步定时器》在Python中实现定时器功能是一个常见需求,尤其是在需要周期性执行任务的场景下,本文给大家介绍了基于asyncio和threading模块,可扩展的异步定... 目录需求背景代码1. 单例事件循环的实现2. 事件循环的运行与关闭3. 定时器核心逻辑4. 启动与停

基于Python实现读取嵌套压缩包下文件的方法

《基于Python实现读取嵌套压缩包下文件的方法》工作中遇到的问题,需要用Python实现嵌套压缩包下文件读取,本文给大家介绍了详细的解决方法,并有相关的代码示例供大家参考,需要的朋友可以参考下... 目录思路完整代码代码优化思路打开外层zip压缩包并遍历文件:使用with zipfile.ZipFil

Python实现word文档内容智能提取以及合成

《Python实现word文档内容智能提取以及合成》这篇文章主要为大家详细介绍了如何使用Python实现从10个左右的docx文档中抽取内容,再调整语言风格后生成新的文档,感兴趣的小伙伴可以了解一下... 目录核心思路技术路径实现步骤阶段一:准备工作阶段二:内容提取 (python 脚本)阶段三:语言风格调

C#实现将Excel表格转换为图片(JPG/ PNG)

《C#实现将Excel表格转换为图片(JPG/PNG)》Excel表格可能会因为不同设备或字体缺失等问题,导致格式错乱或数据显示异常,转换为图片后,能确保数据的排版等保持一致,下面我们看看如何使用C... 目录通过C# 转换Excel工作表到图片通过C# 转换指定单元格区域到图片知识扩展C# 将 Excel

基于Java实现回调监听工具类

《基于Java实现回调监听工具类》这篇文章主要为大家详细介绍了如何基于Java实现一个回调监听工具类,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录监听接口类 Listenable实际用法打印结果首先,会用到 函数式接口 Consumer, 通过这个可以解耦回调方法,下面先写一个

使用Java将DOCX文档解析为Markdown文档的代码实现

《使用Java将DOCX文档解析为Markdown文档的代码实现》在现代文档处理中,Markdown(MD)因其简洁的语法和良好的可读性,逐渐成为开发者、技术写作者和内容创作者的首选格式,然而,许多文... 目录引言1. 工具和库介绍2. 安装依赖库3. 使用Apache POI解析DOCX文档4. 将解析

Qt中QGroupBox控件的实现

《Qt中QGroupBox控件的实现》QGroupBox是Qt框架中一个非常有用的控件,它主要用于组织和管理一组相关的控件,本文主要介绍了Qt中QGroupBox控件的实现,具有一定的参考价值,感兴趣... 目录引言一、基本属性二、常用方法2.1 构造函数 2.2 设置标题2.3 设置复选框模式2.4 是否

C++使用printf语句实现进制转换的示例代码

《C++使用printf语句实现进制转换的示例代码》在C语言中,printf函数可以直接实现部分进制转换功能,通过格式说明符(formatspecifier)快速输出不同进制的数值,下面给大家分享C+... 目录一、printf 原生支持的进制转换1. 十进制、八进制、十六进制转换2. 显示进制前缀3. 指

springboot整合阿里云百炼DeepSeek实现sse流式打印的操作方法

《springboot整合阿里云百炼DeepSeek实现sse流式打印的操作方法》:本文主要介绍springboot整合阿里云百炼DeepSeek实现sse流式打印,本文给大家介绍的非常详细,对大... 目录1.开通阿里云百炼,获取到key2.新建SpringBoot项目3.工具类4.启动类5.测试类6.测

pytorch自动求梯度autograd的实现

《pytorch自动求梯度autograd的实现》autograd是一个自动微分引擎,它可以自动计算张量的梯度,本文主要介绍了pytorch自动求梯度autograd的实现,具有一定的参考价值,感兴趣... autograd是pytorch构建神经网络的核心。在 PyTorch 中,结合以下代码例子,当你