美文网首页
神经网络个人总结

神经网络个人总结

作者: 锦绣拾年 | 来源:发表于2020-09-19 10:51 被阅读0次

简单记录一下个人理解,不一定准确。

全连接神经网络

更高层、深入的线性回归,加了激活函数的多层感知机。
就最简单的线性回归,其实相当于输出是单神经元。
Wx+b = y
假设 x 25×1 维,W就是1×25维,最后输出一个值y,是单神经元。
Wx+b =y
假设x 25×1 维,W 12×25 维,最后输出y 是12维,是12个神经元。
W的维度是 后一层神经元的个数*前一层神经元的个数
这就是全连接神经网络的权重。

CNN

CNN卷积核有点类似做图像处理的空间滤波器。在图像处理中,空间滤波器可以提取图像特征。

卷积核,共享权重。它不是让每一个像素点作为一个神经元,然后去连下一层每一个神经元。它需要更新的权重数,卷积核大小*卷积核个数
卷积核的参数也是训练得到的,具体深层、浅层提取什么特征应该是观察得到的。

RNN

RNN , 通常我们看到的图,是它在时序上的展现。时序上的输出是它一个很大的特征。
它可以看作全连接网络的升级版,全连接网络+时序上的信息传递。
比如一句话 苹果好吃。 转化为向量矩阵,字向量假如5维,那 这句话就是
4 × 5 维。
全连接网络 : 铺平展开20维,20个神经元。
卷积神经网络 :4×5 , 用卷积核提取。
RNN :每次输入1×5 维到全连接神经网络中, 然后得到每个时序的output,传给下一个时序。即这个时序output和下一个时序的1×5维一起再次输入这个全连接神经网络。

最终输出是一个形状为 (timesteps, output_features) 的二维张量,
其中每个时间步是循环在 t 时刻的输出。
输出张量中的每个时间步 t 包含输入序列中时间步0 ~ t 的信息,即关于全部过去的信息。
因此,在多数情况下,你并不需要这个所有输出组成的序列,你只需要最后一个输出(循环结束时的 output_t )

相关文章

  • 神经网络个人总结

    简单记录一下个人理解,不一定准确。 全连接神经网络 更高层、深入的线性回归,加了激活函数的多层感知机。就最简单的线...

  • 从 0 开始机器学习 - 深入浅出神经网络基础

    今天跟大家分享下我学习神经网络的一些个人总结,希望能通过这篇博客帮助新手直接搞懂神经网络! 一、神经网络解决什么问...

  • 《PyTorch深度学习实践》(6)

    主题 卷积神经网络(高级篇) 总结:Inception 通常的神经网络是串行结构的,但也有并行结构的神经网络。 I...

  • 深度学习笔记 --(2)Tensorflow的使用

    1 效果展示2 Tensorflow基本概念3 神经网络搭建4 在Tensorflow中搭建神经网络步骤总结 1 ...

  • 人工神经网络(ANN)简述

    本文是这几天学习人工神经网络入门知识的总结。 我们从下面四点认识人工神经网络(ANN: Artificial N...

  • The Neural Network Zoo

    老外总结的主流的神经网络模型,很详细。The Neural Network Zoo

  • [机器学习(周志华)]神经网络总结

    这是关于周志华的《机器学习》这本书中关于神经网络的BP算法的证明与部分总结,用来给自己留个记录。 神经网络的原理是...

  • Tensorflow笔记--张量、计算图、会话

    目标:搭建第一个神经网络,总结搭建八股。 基于Tensorflow的NN:用张量表示数据,用计算图搭建神经网络,用...

  • 神经网络总结

    网络结构:第一件要做的事是选择网络结构,即决定选择多少层以及决定每层分别有多少个单元。 第一层的单元数即我们训练集...

  • 机器学习&NLP资料整理

    一些关于机器学习(神经网络)和NLP的资料的总结和整理。都是个人很喜欢的深入浅出的指导。(持续更新中...) Op...

网友评论

      本文标题:神经网络个人总结

      本文链接:https://www.haomeiwen.com/subject/rereyktx.html