吴恩达机器学习-可选实验室:神经元和层(Neurons and Layers)

2024-03-17 21:52

本文主要是介绍吴恩达机器学习-可选实验室:神经元和层(Neurons and Layers),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 可选实验室:神经元和层
    • 无激活神经元-回归/线性模型
    • Sigmoid激活的神经元
    • 祝贺

可选实验室:神经元和层

实验室将探索神经元和层的内部工作原理,特别是将课程1中掌握的模型,即回归/线性模型和逻辑斯蒂模型,与之进行对比。本实验室将介绍Tensorflow并演示这些模型是如何在该框架中实现的。
在这里插入图片描述

Tensorflow和Keras
Tensorflow是谷歌开发的机器学习包。2019年,谷歌将Keras集成到Tensorflow中,并发布了Tensorflow 2.0。Keras是一个由franois Chollet独立开发的框架,它为Tensorflow创建了一个简单的、以层为中心的接口。本课程将使用Keras接口。

import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow.keras.layers import Dense, Input
from tensorflow.keras import Sequential
from tensorflow.keras.losses import MeanSquaredError, BinaryCrossentropy
from tensorflow.keras.activations import sigmoid
from lab_utils_common import dlc
from lab_neurons_utils import plt_prob_1d, sigmoidnp, plt_linear, plt_logistic
plt.style.use('./deeplearning.mplstyle')
import logging
logging.getLogger("tensorflow").setLevel(logging.ERROR)
tf.autograph.set_verbosity(0)

后两行代码的含义是设置 TensorFlow 的日志级别,将 TensorFlow 的日志级别设置为 ERROR 级别,从而只记录 ERROR 级别及以上的日志信息,不记录更低级别的日志信息。
另外,tf.autograph.set_verbosity(0)这行代码是设置 AutoGraph 的日志级别,将 AutoGraph 的日志级别设置为 0,表示不输出任何日志信息。 AutoGraph 是 TensorFlow 中用于将普通 Python 代码转换成 TensorFlow 计算图的工具,设置日志级别为 0 可以关闭 AutoGraph 的日志输出,减少不必要的输出信息。

无激活神经元-回归/线性模型

数据集
我们将使用课程一的例子,房价的线性回归。

X_train = np.array([[1.0], [2.0]], dtype=np.float32)           #(size in 1000 square feet)
Y_train = np.array([[300.0], [500.0]], dtype=np.float32)       #(price in 1000s of dollars)fig, ax = plt.subplots(1,1)
ax.scatter(X_train, Y_train, marker='x', c='r', label="Data Points")
ax.legend( fontsize='xx-large')
ax.set_ylabel('Price (in 1000s of dollars)', fontsize='xx-large')
ax.set_xlabel('Size (1000 sqft)', fontsize='xx-large')
plt.show()

在这里插入图片描述
回归/线性模型
未激活的神经元实现的函数与课程1线性回归相同:
在这里插入图片描述

我们可以用一个神经元或单元定义一个层,并将其与熟悉的线性回归函数进行比较。

linear_layer = tf.keras.layers.Dense(units=1, activation = 'linear', )

在这里,'linear’激活函数的作用是保持输出与输入之间的线性关系。在神经网络中,每个层的输出通常会通过一个激活函数来进行非线性变换,以提供网络学习非线性关系的能力。然而,当我们希望保持线性关系时,可以选择使用’linear’激活函数,它实际上仅仅是一个恒等函数,不会对输入进行任何改变。
在这种情况下,Dense层实际上只是执行矩阵相乘和偏置加法,没有经过任何非线性变换,因此输出与输入之间的关系仍然是线性的。这在某些回归任务或特定的网络架构中可能是有用的。

我们来看看权重。

linear_layer.get_weights()

在这里插入图片描述
没有权重,因为权重尚未实例化。
让我们在X_train的一个例子上试试这个模型。
这将触发权重的实例化。
注意,图层的输入必须是二维的,所以我们将重塑它。

a1 = linear_layer(X_train[0].reshape(1,1))
print(a1)

在这里插入图片描述

结果是一个形状为(1,1)或一个条目的张量(数组的另一个名称)。现在让我们来看看权重和偏差。这些权重被随机初始化为较小的数字,并且偏置默认被初始化为零。

w, b= linear_layer.get_weights()
print(f"w = {w}, b={b}")

在这里插入图片描述

具有单个输入特征的线性回归模型(1)将具有单个权重和偏差。这与我们上面1层的尺寸相匹配。
权重被初始化为随机值,所以让我们将它们设置为一些已知值。

set_w = np.array([[200]])
set_b = np.array([100])# set_weights takes a list of numpy arrays
linear_layer.set_weights([set_w, set_b])
print(linear_layer.get_weights())

在这里插入图片描述
让我们将方程(1)与层输出进行比较。

a1 = linear_layer(X_train[0].reshape(1,1))
print(a1)
alin = np.dot(set_w,X_train[0].reshape(1,1)) + set_b
print(alin)

在这里插入图片描述

可以看出无论是用参数设置好的模型计算还是用点积运算得到的结果是一样的。
它们产生相同的值!现在,我们可以使用我们的线性层对我们的训练数据进行预测。

prediction_tf = linear_layer(X_train)
prediction_np = np.dot( X_train, set_w) + set_b
plt_linear(X_train, Y_train, prediction_tf, prediction_np)

在这里插入图片描述

Sigmoid激活的神经元

具有Sigmoid激活的神经元/单元实现的功能与课程1中的逻辑回归相同:
在这里插入图片描述
让我们设置𝑤和𝑏并检查模型。
数据集
我们将使用课程1中的一个例子,逻辑回归。

X_train = np.array([0., 1, 2, 3, 4, 5], dtype=np.float32).reshape(-1,1)  # 2-D Matrix
Y_train = np.array([0,  0, 0, 1, 1, 1], dtype=np.float32).reshape(-1,1)  # 2-D Matrix
pos = Y_train == 1
neg = Y_train == 0
X_train[pos]

在这里插入图片描述

pos = Y_train == 1
neg = Y_train == 0fig,ax = plt.subplots(1,1,figsize=(4,3))
ax.scatter(X_train[pos], Y_train[pos], marker='x', s=80, c = 'red', label="y=1")
ax.scatter(X_train[neg], Y_train[neg], marker='o', s=100, label="y=0", facecolors='none', edgecolors=dlc["dlblue"],lw=3)ax.set_ylim(-0.08,1.1)
ax.set_ylabel('y', fontsize=12)
ax.set_xlabel('x', fontsize=12)
ax.set_title('one variable plot')
ax.legend(fontsize=12)
plt.show()

在这里插入图片描述
逻辑神经元

我们可以通过添加Sigmoid激活来实现“逻辑神经元”。神经元的功能然后由上面的(2)描述。
本节将创建一个Tensorflow模型,该模型包含我们的逻辑层,以演示创建模型的替代方法。Tensorflow最常用于创建多层模型。序列模型是构建这些模型的一种方便方法。

model = Sequential([tf.keras.layers.Dense(1, input_dim=1,  activation = 'sigmoid', name='L1')]
)

model.summary()显示模型中的层和参数数量。该模型中只有一个层,而该层只有一个单元。该单元具有两个参数,𝑤和𝑏

model.summary()

在这里插入图片描述

logistic_layer = model.get_layer('L1')
w,b = logistic_layer.get_weights()
print(w,b)
print(w.shape,b.shape)

在这里插入图片描述

让我们将权重和偏差设置为一些已知值。

set_w = np.array([[2]])
set_b = np.array([-4.5])
# set_weights takes a list of numpy arrays
logistic_layer.set_weights([set_w, set_b])
print(logistic_layer.get_weights())

在这里插入图片描述

让我们将等式(2)与层输出进行比较。

a1 = model.predict(X_train[0].reshape(1,1))
print(a1)
alog = sigmoidnp(np.dot(set_w,X_train[0].reshape(1,1)) + set_b)
print(alog)

在这里插入图片描述
它们产生了相同的值!现在,我们可以使用我们的逻辑层和NumPy模型对我们的训练数据进行预测。

以下代码是将训练数据 X_train 和标签 Y_train 以及模型的决策边界可视化出来

plt_logistic(X_train, Y_train, model, set_w, set_b, pos, neg)

在这里插入图片描述
在这里插入图片描述
上面的阴影反映了从0到1变化的sigmoid的输出。

祝贺

你建立了一个非常简单的神经网络,并探索了神经元与课程1中的线性和逻辑回归的相似之处。

这篇关于吴恩达机器学习-可选实验室:神经元和层(Neurons and Layers)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/820286

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件