美文网首页
Day4 #100DaysofMLCoding#

Day4 #100DaysofMLCoding#

作者: MWhite | 来源:发表于2018-08-10 10:42 被阅读0次

2018-08-09

今日计划

  1. 继续学习CS231n

    2017版
  2. 复习吴恩达的DeepLearning 复习基本概念

知识点

  • 梯度检验

  • 权重初始化

  • 指数加权平均(对于时间序列数据)减少噪音


  • 偏差修正(避免前期数值太小)


  • momentum
    对dW,db进行指数加权平均(也可以加上偏差修正,但一般不用)防止dW大幅度浮动
    β一般取值>0.9(可以视为对1/(1-β)个数据进行加权平均)

  • RMSprop


    对dW,db进行缩放
  • Adam
    综合momentum与RMSprop



  • 学习速率递减
    多种多样的方法,一般以一个epoch为单位进行递减

  • 高维度 几乎不可能被困在局部最优,但平稳点是一个问题

  • 超参数选取

    • random values,不要用grid间隔选取
    • 粗糙到细致


    • 指数级上取值
    • babysitting 与 多模型平行运行
  • batch归一化
    对前一层经过激活前的数据进行归一normalize,不需要再设置参数b
    改变分布,减少covariate shift
    添加噪音,轻微正则化
    预测时,对样本进行缩放采用训练时的缩放参数(指数加权平均活动缩放参数)

  • softmax层


    loss function

机器学习工程

  • 调整模型时 确保正交化,不会牵一发动全身
  • 确定评价指标
  • train dev test (dev test 独立同分布)
  • 部署后效果不好,改变评价指标/改变dev test
  • 贝叶斯误差
  • 根据可避免误差,确定是改善方差还是偏差
    方差训练集与测试集,偏差训练集与贝叶斯误差


  • 误差分析


  • 为了确定验证集与训练集的误差差如何改善,设置training-dev set与train set同分布但不训练
    从而确定是方差问题、偏差问题、还是数据不匹配问题



  • 数据不匹配 对训练集进行处理(图像、声音)人工合成数据,使其尽量与应用场景相接近
  • 迁移学习
  • 多任务学习(视觉下,各个任务数据互助,比单个任务效果更好)
  • 端到端

CV

  • LeNet-5 AlexNet VGG-16

  • 残差网络 ResNet

  • 1x1 卷积

  • inception


  • 计算成本 用1x1卷积作为瓶颈层,可大大减少计算量

  • 迁移学习

  • 数据增强

  • 物体检测

  1. 特定 x,y,w,d
  2. 滑动窗口



    第一个全连接
    第二种方法卷积
    本质一样 5x5x16x400
    但第二种方法可以应用于不同大小的图。
    计算一个方框内是某物体的可能性时,第二种方法计算量增加很少(但边框不精确)


  3. YOLO
    改变标签,图像分割成多个小格子(推荐19x19),标签数据也随时改变。



    (个人设想延伸,一个大样本分割成19x19个小样本,训练小样本。预测时也把图片分割成小样本,依次预测 效果可能不如直接YOLO好)

  • IoU交并比 >0.5
  • non-max suppression 对于不同的识别类别,独立进行非最大抑制


  • archor box 根据IoU确定在哪个anchor box中


  • 整合之前的内容


  • RPN
  • 人脸识别
    siamese network

相关文章

网友评论

      本文标题:Day4 #100DaysofMLCoding#

      本文链接:https://www.haomeiwen.com/subject/jwsqbftx.html