深度学习基础——week3
[toc]
ResNet网络结构
亮点
- 超深
- residual模块
- 使用Batch Normalization加速训练,不需要使用dropout
残差结构有效解决了梯度消失/爆炸、退化问题
residual结构
重点:
1X1卷积层作用是改变通道数
右边的方法有效减少了参数
重点:
- 注意stride和通道数的变化
- 注意虚线部分的作用:改变深度和特征矩阵长宽
BN
目的:使得一批(Batch)数据的特征矩阵每个维度满足均值为0,方差为1。(还有$\gamma \quad \beta$)
对象:一批数据,某一个通道的所有特征矩阵
注意:
训练时,traning:True 验证时:traning:False
Batch size 越大越好
- bn层建议放在卷积层后,卷积不要使用bias (没用)
- $\mu \quad \sigma^{2}$在正向传播过程中统计得到
- $\gamma \quad \beta$在反向传播过程中训练得到
迁移学习
好处:
- 快
- 数据集小也可以有好效果
- 注意:用别人的预处理方法
常见方式:
- 载入后训练所有参数,不固定
- 固定前面参数,只训练最后几层
- 固定所有参数,额外添加全连接层
ResNeXt网络结构
对ResNet的升级:更新了block
Group Convolution(组卷积)
block
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 魔法使いの秘密基地!
评论