社区
华中师范大学
帖子详情
樱花的浪漫
优质创作者: 人工智能技术领域
2022-05-07 11:35:01
批量归一化
1.解决问题损失出现在最后,在反向传播的过程中,后面的层梯度较大,训练较快,数据在最底部,底部层梯度较小,训练较慢。底部层一变化,所有都得跟着变·最后的那些层需要重新学习多次,导致收敛变慢2.批量归一化的思想·固定小批量输入的分布(均值和方差)然后再做额外的调整(可学习的参数):3.作用在全连接层和卷积层输出上,激活函数前全连接层和卷积层输入上●对全连接层,作用在特征维●对于卷积层,作用在通道维我们可以将每个像素看做一个样本的话,(这种思想也常用语1*1.
https://blog.csdn.net/qq_52053775/article/details/124561126
21
回复
打赏
收藏
批量归一化
1.解决问题损失出现在最后,在反向传播的过程中,后面的层梯度较大,训练较快,数据在最底部,底部层梯度较小,训练较慢。底部层一变化,所有都得跟着变·最后的那些层需要重新学习多次,导致收敛变慢2.批量归一化的思想·固定小批量输入的分布(均值和方差)然后再做额外的调整(可学习的参数):3.作用在全连接层和卷积层输出上,激活函数前全连接层和卷积层输入上●对全连接层,作用在特征维●对于卷积层,作用在通道维我们可以将每个像素看做一个样本的话,(这种思想也常用语1*1.
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
华中师范大学
367
社区成员
33
社区内容
发帖
与我相关
我的任务
华中师范大学
复制链接
扫一扫
分享
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章