(39)五节课总结:反者道之动,弱者道之用。天下万物生于有,有生于无

2023-12-20 03:30

本文主要是介绍(39)五节课总结:反者道之动,弱者道之用。天下万物生于有,有生于无,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

接下来,在改进以后的代码(Artificial_Intelligence_Framework_Main.py)代码中,尝试设置4个隐藏层,hidden_nodes = [16,8,4,2],四个隐藏层分别为16个神经元,8个神经元,4个神经元,2个神经元,运行一下Artificial_Intelligence_Framework_Main.py:

640?wx_fmt=png

图 1- 74    4个隐藏层运行图

如图1-73所示,增加一个隐藏层增加了很多计算量,最开始的误差是0.13402363543834808,发现效果可能不会那么明显,因为虽然有这么多隐藏层,但我们的输入数据只有2个features,没必要设置那么多隐藏层,因此,最终运行的效果可能差不多。这里我们展示的是在实际生产生活中,作为技术的狂热追求者,在服务于企业的实际需要的时候,你的工作量会非常小,可以简单的将隐藏层从3层、或者5层,改成10层、100层,500层,就能极大的提升精确度。但是层数增多了,此时可能需要进行分布式深度学习。为什么分布式深度学习是可行的?因为我们的数据一般都为矩阵,矩阵可以分成很多部分,这个思路很简单。

在TensorFlow的可视化图中,重新设置为4个隐藏层,由于TensorFlow后台控制的原因,第1层隐藏层只能设置8个神经元,将第2层隐藏层设置5个神经元,第3层隐藏层设置3个神经元,第4层隐藏层设置2个神经元,选择Tanh激活函数,进行Classification计算。单击运行按钮,这个时候的计算速度会慢一些,因为隐藏层相对比较多,有更多的神经元,训练的过程就是调整权重Weight的过程。

640?wx_fmt=png

图 1- 75 TensorFlow 4个隐藏层

 

回到我们的BackPropagation.py代码,在计算Back Propagation的过程中,以下代码进行求导,然后更新权重:

……	
derivative = weight_to_node_error * (weight_to_node_value * (1 - weight_to_node_value )) * weight_from_node_value	
weights[j].set_value(weights[j].get_value() - derivative * learning_rate)     	
…..    	


在TensorFlow的可视化图中,例如查询第2个隐藏层的第2个神经元到第3个隐藏层的第2个神经元的权重,单击Weight边的那一刻的的权重是-0.33,再次单击一次查询,权重变成了-0.32,因为在每次训练的时候权重有所不同。

至此,我们在5节课内从零起步,在没有数学基础,没有Python基础的情况下,编码实现了类似于TensorFlow的AI框架。改进以后的代码(Artificial_Intelligence_Framework_Main.py)和Neuron_Network_Entry.py基本上没多大区别,思路是完全一样的,只是进行了微调。Forward  Propagation、Back Propagation就像一阴一阳,Forward  Propagation采用激活函数,Back Propagation对激活函数求导,然后调整权重。Forward  Propagation从左往右进行训练,Back Propagation从右往左进行反思调整,一正一反,Go backward to move forward,如果想前进,就要回顾过去,然后调整你的模式,在下一步的行动采用,调整权重参数向前进步,否则只能原地踏步。这也是道德经中“反者道之动,弱者道之用。天下万物生于有,有生于无”精髓的实现及应用,AI完美的演绎了“反者道之动”的思想,AI基于大数据的基础之上,AI如果要发挥出潜力,必须基于数据,AI对数据是很贪婪的状态,而数据本身是很柔弱的,例如 Goole、Facebook、Amazon等公司中每个用户的数据看上去举重若轻,但当规模比较大的情况下用户数据就很用,这是“弱者道之用”。天下万物生于有,有生于无,作为中国的技术人员,能够将道德经的思想变成代码,并且代码是极具商业价值的,在精神层面有寄托,在实际层面有成果,我们应该为此感到庆幸!  


     本文根据王家林老师《5节课内从零起步(无需数学和Python基础)编码实现AI人工智能框架电子书》整理。


640?wx_fmt=png

图 1- 76 反者道之动,弱者道之用。天下万物生于有,有生于无

640?wx_fmt=jpeg


这篇关于(39)五节课总结:反者道之动,弱者道之用。天下万物生于有,有生于无的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/514631

相关文章

Kubernetes常用命令大全近期总结

《Kubernetes常用命令大全近期总结》Kubernetes是用于大规模部署和管理这些容器的开源软件-在希腊语中,这个词还有“舵手”或“飞行员”的意思,使用Kubernetes(有时被称为“... 目录前言Kubernetes 的工作原理为什么要使用 Kubernetes?Kubernetes常用命令总

Python中实现进度条的多种方法总结

《Python中实现进度条的多种方法总结》在Python编程中,进度条是一个非常有用的功能,它能让用户直观地了解任务的进度,提升用户体验,本文将介绍几种在Python中实现进度条的常用方法,并通过代码... 目录一、简单的打印方式二、使用tqdm库三、使用alive-progress库四、使用progres

Android数据库Room的实际使用过程总结

《Android数据库Room的实际使用过程总结》这篇文章主要给大家介绍了关于Android数据库Room的实际使用过程,详细介绍了如何创建实体类、数据访问对象(DAO)和数据库抽象类,需要的朋友可以... 目录前言一、Room的基本使用1.项目配置2.创建实体类(Entity)3.创建数据访问对象(DAO

Java向kettle8.0传递参数的方式总结

《Java向kettle8.0传递参数的方式总结》介绍了如何在Kettle中传递参数到转换和作业中,包括设置全局properties、使用TransMeta和JobMeta的parameterValu... 目录1.传递参数到转换中2.传递参数到作业中总结1.传递参数到转换中1.1. 通过设置Trans的

C# Task Cancellation使用总结

《C#TaskCancellation使用总结》本文主要介绍了在使用CancellationTokenSource取消任务时的行为,以及如何使用Task的ContinueWith方法来处理任务的延... 目录C# Task Cancellation总结1、调用cancellationTokenSource.

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

git使用的说明总结

Git使用说明 下载安装(下载地址) macOS: Git - Downloading macOS Windows: Git - Downloading Windows Linux/Unix: Git (git-scm.com) 创建新仓库 本地创建新仓库:创建新文件夹,进入文件夹目录,执行指令 git init ,用以创建新的git 克隆仓库 执行指令用以创建一个本地仓库的

二分最大匹配总结

HDU 2444  黑白染色 ,二分图判定 const int maxn = 208 ;vector<int> g[maxn] ;int n ;bool vis[maxn] ;int match[maxn] ;;int color[maxn] ;int setcolor(int u , int c){color[u] = c ;for(vector<int>::iter

整数Hash散列总结

方法:    step1  :线性探测  step2 散列   当 h(k)位置已经存储有元素的时候,依次探查(h(k)+i) mod S, i=1,2,3…,直到找到空的存储单元为止。其中,S为 数组长度。 HDU 1496   a*x1^2+b*x2^2+c*x3^2+d*x4^2=0 。 x在 [-100,100] 解的个数  const int MaxN = 3000