BN的本质原理?
在网络的每一层输入的时候,又插入了一个归一化层,也就是先做一个归一化处理(归一化至:均值0、方差为1),然后再进入网络的下一层。不过文献归一化层,可不像我们想象的那么简单,它是一个可学习、有参数(γ、β)的网络层
2,853
社区成员
5,760
社区内容
加载中
试试用AI创作助手写篇文章吧