首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
激励函数专题
2.3 PyTorch神经网络基础-激励函数(Activation Function)
目录 1.写在前面 2.非线性方程 3.激励函数 4.常用选择 5.Torch中的激励函数 1.写在前面 今天我们要来聊聊现代神经网络中 必不可少的一个组成部分, 激励函数, activation function。 2.非线性方程 我们为什么要使用激励函数? 用简单的语句来概括. 就是因为, 现实并没有我们想象的那么美好, 它是残酷多变的.
阅读更多...
激励函数的作用之sigmoid
首先看一下这个sigmoid函数的图像,以x值的0值做为区分点,在0值范围左右的y轴数据为0~1范围内的数据。 python实现: from math import efrom matplotlib import pyplot as pltxs = []ys = []def sigmoid(x):y = 1. / (1. + e **(-x))return y;for x in range(
阅读更多...