社区
CUDA高性能计算讨论
帖子详情
做图像分类的时候,loss不降
_Raymond_
2021-04-08 10:41:40
二分类。损失=In2=0.69。
五分类。损失=In5=1.60。
损失函数是交叉熵。
torch 架构。
网络是vgg 16。
试了一下网上的方法,不是权重初始化的问题。
大佬们有没有思路。
...全文
857
回复
打赏
收藏
做图像分类的时候,loss不降
二分类。损失=In2=0.69。 五分类。损失=In5=1.60。 损失函数是交叉熵。 torch 架构。 网络是vgg 16。 试了一下网上的方法,不是权重初始化的问题。 大佬们有没有思路。
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
keras图像二分类
Loss
一直0.69
最近
做
图像分类
遇到了
loss
下降的0.69就不下降了,一直停在那里,acc在0.5左右。 然后在网上查了很多资料,搞清楚了为什么会出现这种情况: https://www.jianshu.com/p/45c2180cab17 https://blog.csdn.net/weixin_40267472/article/details/82216668 https://zhuanlan.zhihu....
深度学习| Dice
Loss
解决图像数据不平衡问题
图像数据不平衡问题的一种解决方案Dice
Loss
,介绍Dice
Loss
并解释为什么能解决的该问题以及弊端。
python 关于训练集
loss
不降
问题的经验分享
如何尽量避免这种问题的出现: 大部分情况是函数默认参数不同、或者是代码所处环境不同产生的bug 1. 使用相同的环境:系统、库的版本要一致 2. 设定固定的随机种子,可以规避一些不确定性问题 3. 在函数调用时主动填写默认参数(后续看代码也方便)
Loss
不下降的原因及其解决方法
在训练Bert+Classifier的时候遇到了问题都是在训练的过程中
loss
基本保持常数值,特此记录一下。
图像分割中的Dice
Loss
本文只总结我对Dice
Loss
的一些理解 1、首先简单介绍一下,这个不多说,详细如知乎所讲。 Dice 定义为2倍交集/和, 范围在[0,1]: Dice
Loss
取反或者用1-,定义为: 2、Dice
Loss
与 BCE 的结合各自的作用。 Dice
Loss
与交叉熵经常搭配使用,具有以下优点: 1)Dice
Loss
相当于从全局上进行考察,BCE是从微观上逐像素进行拉近,角度互补。 2)当出现前后景极不均衡情况时。如一个512*512的图片只有一个10*10的分割样例。BCE
CUDA高性能计算讨论
357
社区成员
615
社区内容
发帖
与我相关
我的任务
CUDA高性能计算讨论
CUDA高性能计算讨论
复制链接
扫一扫
分享
社区描述
CUDA高性能计算讨论
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章