第三章:人工智能深度学习教程-基础神经网络(第二节-ANN 和 BNN 的区别)

本文主要是介绍第三章:人工智能深度学习教程-基础神经网络(第二节-ANN 和 BNN 的区别),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在本文中,我们将了解单层感知器及其使用 TensorFlow 库在Python中的实现。神经网络的工作方式与我们的生物神经元的工作方式相同。

生物神经元的结构

生物神经元具有三个基本功能 

  • 接收外部信号。

  • 处理信号并增强是否需要发送信息。

  • 将信号传递给目标细胞,目标细胞可以是另一个神经元或腺体。

同样,神经网络也能发挥作用。

机器学习中的神经网络

机器学习中的神经网络

什么是单层感知器?

它是最古老且最早引入的神经网络之一。它是由弗兰克·罗森布拉特 (Frank Rosenblatt)1958 年提出的。感知器也称为人工神经网络。感知器主要用于计算AND、OR、NOR等具有二进制输入和二进制输出的逻辑门。

感知器的主要功能是:-

  • 从输入层获取输入

  • 对它们进行加权并总结。

  • 将总和传递给非线性函数以产生输出。

单层神经网络

这里的激活函数可以是sigmoid、tanh、relu等任何函数。根据需求,我们将选择最合适的非线性激活函数以产生更好的结果。现在让我们实现一个单层感知器。

单层感知器的实现

现在让我们使用 TensorFlow 库使用“MNIST”数据集实现一个单层感知器。

Step1:导入必要的库

  • Numpy – Numpy 数组非常快,可以在很短的时间内执行大量计算。

  • Matplotlib – 该库用于绘制可视化效果。

  • TensorFlow – 这是一个用于机器学习和人工智能的开源库,提供一系列函数以通过单行代码实现复杂的功能。

Python3

import numpy as np
import tensorflow as tf
from tensorflow import keras
import matplotlib.pyplot as plt# 开启内联绘图
%matplotlib inline

步骤 2:现在使用导入版本的张量流中的“Keras”加载数据集。

Python3

(x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()

这段代码导入了一些常用的Python库,包括NumPy(用于数值计算)、TensorFlow(用于深度学习)、Keras(用于构建神经网络模型)以及Matplotlib(用于绘图和数据可视化)。通过 %matplotlib inline,我们可以在Jupyter Notebook或IPython环境中直接在输出单元格中显示图形,而不需要单独的窗口。

这些库的使用使得在进行深度学习和数据可视化任务时更加方便。

步骤 3:现在显示数据集中单个图像的形状和图像。图像大小包含28*28的矩阵,训练集长度为60,000,测试集长度为10,000。

Python3

# 获取训练集的长度
len(x_train)# 获取测试集的长度
len(x_test)# 获取第一个训练图像的形状
x_train[0].shape# 显示第一个训练图像
plt.matshow(x_train[0])

这段代码执行以下操作:

  1. len(x_train) 返回训练集中样本的数量。
  2. len(x_test) 返回测试集中样本的数量。
  3. x_train[0].shape 获取第一个训练图像的形状,通常是一个28x28像素的二维数组。
  4. plt.matshow(x_train[0]) 用Matplotlib库显示第一个训练图像,可以通过该图像来查看手写数字的外观。

这些操作有助于了解MNIST数据集的规模和内容,并可以用于数据预处理和可视化。

输出:

来自训练数据集的样本图像

来自训练数据集的样本图像

步骤 4:现在标准化数据集,以便快速准确地进行计算。

Python3

# 对数据集进行标准化
x_train = x_train / 255
x_test = x_test / 255# 扁平化数据集以便进行模型构建
x_train_flatten = x_train.reshape(len(x_train), 28*28)
x_test_flatten = x_test.reshape(len(x_test), 28*28)

这段代码执行以下操作:

  1. 对训练集 x_train 和测试集 x_test 进行标准化,将像素值从0到255的范围缩放到0到1的范围,这是一种常见的数据预处理步骤。

  2. 扁平化数据集,将每个图像从一个二维数组(28x28像素)转换为一个一维数组(784个像素),以便于后续的模型构建。这是因为深度学习模型通常需要输入的是一维数据。

这些操作是为了准备数据以用于深度学习模型的训练,以便更好地处理图像数据。

第5步:构建具有单层感知的神经网络。在这里我们可以观察到,该模型是一个单层感知器,仅包含一个输入层和一个输出层,不存在隐藏层。  

Python3

model = keras.Sequential([keras.layers.Dense(10, input_shape=(784,), activation='sigmoid')
])model.compile(optimizer='adam',loss='sparse_categorical_crossentropy',metrics=['accuracy']
)model.fit(x_train_flatten, y_train, epochs=5)

这段代码执行以下操作:

  1. 创建一个Keras顺序模型,该模型包含一个具有10个神经元的全连接层(keras.layers.Dense),输入形状为(784,),激活函数为'sigmoid'。这是一个简单的神经网络模型。

  2. 编译模型,指定优化器为'adam',损失函数为'sparse_categorical_crossentropy'(适用于多类别分类问题),并选择评估指标为'accuracy'(准确度)。

  3. 使用训练数据 x_train_flatten 和相应的标签 y_train 对模型进行训练,训练周期数为5(epochs=5)。

这些操作构建了一个简单的神经网络模型,并使用训练数据对其进行了训练,以便用于多类别分类任务,例如手写数字识别。

输出:

每个时期的训练进度

在训练过程中,通常会产生一系列的训练日志,包括损失和准确度等信息。这些信息会在训练的每个周期(epoch)后显示。由于这些信息的输出取决于您的运行环境,我无法提供确切的训练输出。您可以将代码放入一个Jupyter Notebook或Python脚本中运行以查看详细的训练输出。

通常,您可以期望在每个周期的训练输出中看到损失值和准确度的变化,以便跟踪模型的训练进展。当训练完成后,您可以使用模型进行预测,并评估其性能,例如在测试数据上计算准确度。这些步骤通常会在训练后的代码中进行。如果您有特定的输出或问题,可以提供更多详细信息,以便我能够提供更具体的帮助。

步骤6:输出模型在测试数据上的准确率。

Python3

model.evaluate(x_test_flatten, y_test)

这段代码执行了模型的评估操作,使用测试数据 x_test_flatten 和相应的测试标签 y_test 来计算模型在测试数据上的性能指标。这些性能指标通常包括损失值和准确度等,用于衡量模型在测试数据上的表现。评估的结果将根据模型的性能和测试数据而异,通常以一个包含指标值的列表返回。

输出:

[损失值, 准确度]

  • 损失值 表示模型在测试数据上的损失值,通常是一个非负数,表示模型对测试数据的拟合程度。
  • 准确度 表示模型在测试数据上的准确度,通常以百分比形式表示,表示模型在测试数据中正确分类的比例。

具体的数值将根据模型的训练和测试数据集而有所不同。您可以运行这段代码以查看实际的输出结果,以便了解模型在测试数据上的性能。

这篇关于第三章:人工智能深度学习教程-基础神经网络(第二节-ANN 和 BNN 的区别)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/376022

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}