美文网首页
神经网络和深度学习-3.2激活函数

神经网络和深度学习-3.2激活函数

作者: cswb5511 | 来源:发表于2018-10-26 16:42 被阅读0次

为什么要使用激活函数?目前只介绍了sigmoid函数。下面多介绍几个激活函数。

sigmoid

现在已经不使用,除非在输出层进行0~1的概率输出时使用


image.png

tanh

几乎在任何场合都比sigmoid好用,因为它和sigmoid图像相同,只是进行了平移,但是使数据在函数输出以0为中心的,这样会使权重更新效率提高。


image.png

ReLU

目前最常用的激活函数,基本就是默认使用

  1. 在输入为正数的时候,不存在梯度饱和问题。

  2. 计算速度要快很多。ReLU函数只有线性关系,不管是前向传播还是反向传播,都比sigmod和tanh要快很多。(sigmod和tanh要计算指数,计算速度会比较慢)

当然,缺点也是有的:

  1. 当输入是负数的时候,ReLU是完全不被激活的,这就表明一旦输入到了负数,ReLU就会死掉。这样在前向传播过程中,还不算什么问题,有的区域是敏感的,有的是不敏感的。但是到了反向传播过程中,输入负数,梯度就会完全到0,这个和sigmod函数、tanh函数有一样的问题。

  2. 我们发现ReLU函数的输出要么是0,要么是正数,这也就是说,ReLU函数也不是以0为中心的函数。


    6

非线性激活函数的必要性

如果一直使用线性激活函数,也就是直接把输入给输出,实则是一直在计算线性激活函数,这样对于隐层没有意义。线性的因层一点用也没有。因为两个线性函数的组合本身也还就是线性函数。
当然也有一个例外,当你需要在输出层进行回归的时候,可以使用线性函数,例如房价预测这样的。

一些激活函数的导数

image.png
image.png
image.png

相关文章

  • 神经网络和深度学习-3.2激活函数

    为什么要使用激活函数?目前只介绍了sigmoid函数。下面多介绍几个激活函数。 sigmoid 现在已经不使用,除...

  • 深度学习基础

    深度学习 一、神经网络基础 1.感知机 2.神经网络 激活函数 ①sigmoid 函数 ②tanh函数(双曲正切函...

  • 65-R语言训练深度预测模型

    《深度学习精要(基于R语言)》学习笔记 1、概览 本文涉及以下主题:• 深度前馈神经网络入门• 常见的激活函数:整...

  • 一文理清深度学习前馈神经网络

    ? Index 多层感知机(MLP)介绍 深度神经网络的激活函数 深度神经网络的损失函数 多层感知机的反向传播算法...

  • 神经网络

    单层神经元模型 激活函数 BP神经网络(误差逆向传播) 示意图 其他常见神经网络 1.RBF 深度学习

  • 3. 深度学习- 常用的激活函数

    在学习神经网络中,我们会常常碰到激活函数这个名词。那么什么是激活函数?激活函数激活的是什么?在神经网络中,有什么用...

  • 激活函数softmax-P2分类任务

    激活函数种类激活函数作用 激活函数 深度学习常用激活函数之— Sigmoid & ReLU & Softmax 深...

  • 2019-10-09

    深度学习第三天 激活函数: 激活函数是...

  • 算法学习笔记——神经网络

    关键词:输入层、输出层、中间层、单元\节点、感知器、BP神经网络、激活函数、深度学习、梯度下降、损失函数、反向传播...

  • 机器学习笔记(五)——激活函数

    激活函数区别和作用 本质:    激活函数是来向神经网络中引入非线性因素,通过激活函数,神经网络就可以拟合各种曲线...

网友评论

      本文标题:神经网络和深度学习-3.2激活函数

      本文链接:https://www.haomeiwen.com/subject/okfltqtx.html