在此非常感谢not-god 大神的铺垫:http://www.jianshu.com/p/d7aec8b41356。
并且我是在看完他的简书之后,决定在这里入驻的。
在aalto大学选了deep learning这门课,并且三人组队完成 Autoencoder + Greedy layer-wise pretraining的实现。
作业要求:

Figure.1 Base Network
实现三个网络:
A : Base Network + unlabelled examples
B: encoder of A + Fine-tune classification with labelled examples
C: encoder of base network + labelled examples
总体实现分两部分
1) 确定hyper parameter - 通过pretraining
2)建立model
具体代码实现可以参看队友的github:https://github.com/AriSilvennoinen/deep_learning.
最后结果:
1)greedy pretraining > random selection 收敛性能更好,更稳定。


2) fine-tuned auto encoder classifier > basic autoencoder classifier 准确性更高


网友评论