softmax:

tanh:

ReLu

sigmoid:

maxout?

对于CNN来说,并不是所有上下层神经元都能直接相连,而是*通过“卷积核”作为中介
输出值和真实值差距比较大,对误差进行反向传播,更新权值,重新计算输出
softmax:
tanh:
ReLu
sigmoid:
maxout?
对于CNN来说,并不是所有上下层神经元都能直接相连,而是*通过“卷积核”作为中介
输出值和真实值差距比较大,对误差进行反向传播,更新权值,重新计算输出
本文标题:07.18 深度学习常见函数(不定期更新)
本文链接:https://www.haomeiwen.com/subject/ewuckxtx.html
网友评论