美文网首页
[監督式]卷積神經網絡(CNN)

[監督式]卷積神經網絡(CNN)

作者: RJ阿杰 | 来源:发表于2018-12-14 19:25 被阅读0次

卷積神經網絡(Convolutional Neural Networks)

下面簡單比較一下DNN與CNN,Affine為全連接層。

DNN
CNN

仿射(Affine)的意思是前面一層中的每一個神經元都連接到當前層中的每一個神經元,ReLU層只是把做完convolution後的值都經過ReLU function,將0以下的值都轉為0。

卷積層(conv)

卷積運算

卷積運算是不需要固定輸入或輸出的,輸入不同尺寸的圖片不需要改變訓練的權重,但會產生不同尺寸的輸出,但如果後面接上Affine層那麼conv就必須固定輸出尺寸,也就必須固定輸入的圖片大小了。
雖然卷積運算是不需要固定輸入或輸出,但也不能輸入過大的輸入尺寸,需要考慮顯存夠不夠大,前向傳播會把計算結果存下來給反向傳播使用(float32的101281283輸入經過conv-->106464256這樣就佔了將近42M了,另外還要考慮weight、bias、grad、optimizers)。
若要接上Affine層又需要不同尺寸的圖片輸入,可以使用SPP(Spatial Pyramid Pooling 空間金字塔池化)。

  • filter
    CNN中input(image、Feature)也可稱作input feature map(輸入特徵圖),然後CNN的weight我們稱filter(濾鏡)或叫kernel,filter的大小(這邊是3x3)可以自己調整,經過運算輸出的我們可以稱作output feature map(輸出特徵圖)。

  • padding(填補)
    再進行conv或pooling之前我們常會進行padding處理,就是將input matrix外圍填上固定數值的資料,可以使做完conv或pooling的input輸出大小變大,避免做到最後input尺寸只剩下(1,1),padding是個可調參數。

    Theano文檔gif
  • stride(步幅)
    卷積運算時移動的幅度,stride是個可調參數,stride大於1是做下採樣(downsampling),小於1是做上採樣(upsampling)。

  • 運算步驟

  1. 我們將filter放置在input的左上角,每個filter與它對應到的input相乘後做加總,當作輸出Matrix的其中一個值。
  2. 然後做move,移動的大小稱為stride(步幅),先往左到底後退回最左再往下,依序執行直到filter移動到右下角。
  3. 換另外一個filter重複前兩步驟直到filter全部運算完成。

註:執行過Convolution後的output尺寸會變小,層數會等於filter數,例如input大小為(6,6),而filter大小為(3,3),則output大小為(4,4)。

Convolution與pooling都可以轉成col(im2col)優化運算
  • 應用到多維資料
    多維資料(如彩色圖片有3層),對應的filter也有相同層數,但最後output時,3個層每個對應的值需要做加總變成1層。

池化(pooling)

池化(pooling)有最大池化(max pooling)、最小池化(min pooling)、平均池化(average pooling)等,pooling的大小也是可以自己調整的,下面用max pooling作為例子。

CNN特性

CNN的學習出來每一層的濾鏡轉換成圖像可能會是紋理、邊界、結構等等 CNN共用權重(weight)減少參數

代表性架構

transpose convolution(轉置卷積)

up-convolution
  • 一般轉置卷積
    正常卷積中stride大於1時我們進行的是等距下採樣,會讓輸出的size比輸入小,而轉置卷積層我們就會用stride小於1的捲積進行上採樣,使輸出的size變大。

    正常卷積過程 轉置卷積
  • 分數卷積(fractionally-strided convolution)
    我們在區塊間插入0,這樣使每次的stride相當於<1。

卷積尺寸計算

OH、OW(輸出高度及寬度),IH、IW(輸入高度及寬度),FH、FW(濾鏡寬度及高度),S(stride步數),P(padding尺寸)。
OH = \frac{IH+2P-FH}{S} + 1
OW =\frac{IW+2P-FW}{S} + 1

tensorflow算法

  • 卷積(conv):
    ceil為向上取整,dilation_rate默認1,padding為SAME才會做padding動作,為VALID時不padding。





  • 轉置卷積:
    padding為SAME會在區間插入0後做padding,為VALID時不不插入0直接做padding。
    而這裡的stride在實際進行時永遠為1,而參數的stride為正常卷積時的stride,是為了檢驗input與output的正確性,將輸入的output size與padding以及stride進行正常卷積運算後檢驗輸出是否為input size。





推薦閱讀:
https://zhuanlan.zhihu.com/p/50573160
https://ithelp.ithome.com.tw/articles/10188326?sc=pt
https://zhuanlan.zhihu.com/p/31988761

參考李宏毅老師ML課程

相关文章

  • [監督式]卷積神經網絡(CNN)

    卷積神經網絡(Convolutional Neural Networks) 下面簡單比較一下DNN與CNN,Aff...

  • 秋寅說說

    前兩天,朋友圈,包括整個網絡,被某對明星的婚訊淹沒了。 於是,好多人都說,又開始相信愛情了! 記得,曾經,網絡上曝...

  • [監督式、非監督]KNN、K-mean

    KNN(K Nearest Neighbor) k鄰近算法可以算是一種監督式學習算法,從部分已知的資料來推測未知的...

  • 五百年了,你還認識自己嗎?

    公元2000年,一部曠世奇作在網絡上橫空出世——『悟空傳』,這部被定性為網絡小說的作品,成為了一代人心目中的經典。...

  • [監督式]GradientDescent介绍

    以Gradient Descent做回归分析,假设一个监督式学习的预测房价例子:以下X为特征参数(feature)...

  • [監督式]分類

    從上篇GradientDescent延伸,這次要處理的是分類問題,從數據特徵中推斷是屬於哪一類別的標籤,例如:從身...

  • [監督式]Ensemble learning

    Ensemble learning(集成學習) 做法假設我們有多個模型(假設3個),每個模型準確率都大於50%(假...

  • 有關智慧網絡的設定

    智慧網絡(Smart Web) 作為下一代互聯網的概念,智慧網絡的定義是能夠具有自我學習功能的新型網絡形式。 現在...

  • 朋友,說好的日更呢

    那天朋友說,決定日更請監督。而我回覆說,寫就對了,無需監督。因為我也知道,鞭長莫及。監督有用嗎?並沒有。 這是第二...

  • 經絡

    为什么要疏通经络? 因为:肺经不通:怕风易汗咽干咳嗽;过敏性鼻炎,皮肤干燥容易过敏;动则气短胸闷面色无华。 ...

网友评论

      本文标题:[監督式]卷積神經網絡(CNN)

      本文链接:https://www.haomeiwen.com/subject/rrpuhqtx.html