美文网首页
简介模型压缩与加速的一些方法

简介模型压缩与加速的一些方法

作者: _xuyue | 来源:发表于2019-08-23 16:27 被阅读0次

具体方法:

  1. Shuffle Net:
    将feature map按照channel进行分组。每个卷积核只对某一组进行运算,从而降低了参数量和计算量。为了防止由于分组导致局部特征得不到共享,每经过一次卷积操作,就将channel进行随机打乱。
  1. Mobile Net:
    标准的卷积层,参数是KKMN,其中M,N分别是输入和输出的channel数目。采用Depthwise Conv和PointWise Conv相结合的方式,代替标准卷积核。 需要参数是KKM + 11MN

计算量 MACC (multiply-accumulate operation 乘法累加运算)

标准卷积: KKMNHoutWout
Mobile Net: K
KMHoutWout + 11MNHoutWout

  1. 分解卷积:
    将KK的卷积核分解成1K和K*1的

  2. BottleNeck
    以ResNet为例,降维、卷积、升维

  3. SqueezeNet:分为Squeeze和Expand两部分,Squeeze听起来像是降维,因为要求(Squeeze层的输出S11 < input map number),Expand层分为两个分支,1×1的卷积和3*3的卷积,最后将两个分支的输出拼接起来。

参考链接
https://zhuanlan.zhihu.com/p/67871864

相关文章

  • 简介模型压缩与加速的一些方法

    具体方法: Shuffle Net:将feature map按照channel进行分组。每个卷积核只对某一组进行运...

  • BERT 模型蒸馏 TinyBERT

    BERT 的效果好,但是模型太大且速度慢,因此需要有一些模型压缩的方法。TinyBERT 是一种对 BERT 压缩...

  • CNN模型加速之量化模型

    引言 量化模型是一种模型加速方法的总称,其中包括:二值化网络、三值化网络和深度压缩等。 二值化网络 在构建模型时使...

  • 常用的深度学习模型压缩和加速方法

    现有的深度模型压缩方法,主要分为四类: 参数修剪和共享(parameter pruning and sharing...

  • CNN 模型压缩与加速算法综述

    【嵌牛导读】:卷积神经网络日益增长的深度和尺寸为深度学习在移动端的部署带来了巨大的挑战,CNN模型压缩与加速成为了...

  • 深度学习模型压缩与加速(一)综述

    由于我们的深度学习模型都部署在移动端,所以本篇就来总结一下深度学习模型压缩的方法。相对于服务器,移动端的存储空间、...

  • CNN 模型压缩与加速算法综述

    本文由云+社区发表 导语:卷积神经网络日益增长的深度和尺寸为深度学习在移动端的部署带来了巨大的挑战,CNN模型压缩...

  • Learning Efficient Convolutional

    目标:压缩模型尺寸,降低运行时的内存占用,降低计算复杂度,不损失模型精度 方法:channel-level压缩利用...

  • 27.深度学习模型压缩方法-1

    目前深度学习模型压缩方法主要分为更精细化模型设计、模型裁剪、核的稀疏化、量化、低秩分解、迁移学习等方法,而这些方法...

  • NVIDIA TensorRT模型压缩加速原理

    介绍 TensorRT是一个高性能的深度学习推理优化器,可以为深度学习应用提供低延迟、高吞吐率的部署推理。Tens...

网友评论

      本文标题:简介模型压缩与加速的一些方法

      本文链接:https://www.haomeiwen.com/subject/afltectx.html