py-faster-rcnn训练数据集loss不收敛问题 [问题点数:40分]

Bbs1
本版专家分:0
结帖率 66.67%
Bbs1
本版专家分:0
Blank
GitHub 绑定GitHub第三方账户获取
Darknet yoloV3 训练VOC数据集时不收敛 “-nan”报错或者检测无效果
看了好半天,不过最后还是在Git上找到了相关的<em>问题</em>。主要是对于yolov3-voc.cfg文件。其中的batch和subvision<em>训练</em>和测试的时候应当是不一样的。默认的都是1,那是测试的时候的批次数量。在<em>训练</em>的时候我是改成batch=64,subversion=16;基本<em>训练</em>就没啥<em>问题</em>,也会有“nan”的报告,但是基本网络还是能够<em>收敛</em>的。nn另外,测试的时候记得把这两个参数的值改回来哦。...
FCN语义分割训练自己数据不收敛处理记录
前言最近在做FCN语义分割方面的项目,在finetune的时候遇到了<em>训练</em><em>loss</em>不下降的情况,在经过自己的摸索之后,最后<em>loss</em>曲线下降下去,这里将这个过程记录下来,希望对大家有所帮助。1. <em>数据集</em><em>问题</em><em>数据集</em>的<em>问题</em>在按照自己的需求进行语义分割的时候都会遇到。其实<em>数据集</em>的制作很简单,只需要按照自己的需求设计好分类就行了,可以参考本人之前的博客进行修改。需要提醒的是每个0~255的像素值代表的是一个分类
图像语义分割 — 利用Deeplab v3+训练自己的数据 loss震荡解决办法
<em>问题</em>描述:nn    在利用DeeplabV3+ <em>训练</em>自己<em>数据集</em>时,<em>loss</em>一直在0.4附近震荡,测试集MIOU值在0.55附近(结果较差),折腾许久,终于有所提高,最近计算结果:测试集 MIOU &amp;gt; 0.8,且过拟合现象不明显。nn参考链接:nn1. https://blog.csdn.net/u011974639/article/details/80948990;nn2. https:/...
caffe 训练loss收敛
1.<em>loss</em>一直没有降低nn解决方法: 将适当学习率调高点,比如0.000001 -&amp;gt; 0.00001nn2.<em>loss</em>曲线震荡nn解决方法:batch size 必须大于样本数,即:nnnsolver里的test interval* train batch size 应该&amp;gt;=train image 总数nnsolver里的test iter * test batch size应该&amp;gt...
FCN训练收敛的原因分析和最详细的FCN训练与测试自己的数据程序配置
本文分析了FCN<em>训练</em>不<em>收敛</em>的原因并给出了解决方案。n同时给出了详尽的完善的FCN<em>训练</em>与测试程序配置,欢迎阅读与分享。
LSTM训练无法收敛
LSTM不<em>收敛</em><em>问题</em>nn<em>问题</em>描述n我准备用LSTM建立一个关于时序数据的映射<em>问题</em>,简单点来说就是输入一段有序的数据,经过LSTM之后输出另一段有序的数据,例如输入一段行走的动画骨架数据,输出一段跑的骨架数据。n我的方法n使用了三层的LSTM,将走的数据当作输入,跑的数据当做标签,将网络输出的结果和我的标签数据进行对比(使用了MSE损失函数),然后反向传播改进网络。n我的<em>问题</em>n网络不<em>收敛</em>,损失函数下降...
tensorflow使用高阶api导致训练收敛问题
摘要n本文将低级api实现的tensorflow网络移植到高级api上遇到的<em>loss</em>值不变和<em>训练</em>结果不<em>收敛</em><em>问题</em>n引言ntensorflow版本更新很快,猛一回头发现已经推出更高级的api了n主题ntensorflow高级apinn上图是tensorflow软件栈图,我之前学习和实现的网络模型(0.12a)使用的是 低级api, 现在的新版本(1.10)对低级api进行了封装,形成了高级api(es...
caffe分类训练收敛原因分析
1. 数据和标签rn数据分类标注是否准确?数据是否干净?rn另外博主经历过自己创建数据的时候数据标签设置为1,2,...,N,<em>训练</em>的时候最后FC层设置的输出output num为N。<em>训练</em>的时候<em>loss</em>一直不降。后来将标签改为0,1,2,...,N-1,重新<em>训练</em>,很快就<em>收敛</em>了。rnrn为啥label需要从0开始?rnrn在使用SoftmaxLoss层作为损失函数层的单标签分类<em>问题</em>中,label要求从
深度学习训练时网络不收敛的原因分析总结
很多同学会发现,为什么我<em>训练</em>网络的时候<em>loss</em>一直居高不下或者准确度时高时低,震荡趋势,一会到11,一会又0.1,不<em>收敛</em>。 又不知如何解决,博主总结了自己<em>训练</em>经验和看到的一些方法。nn首先你要保证<em>训练</em>的次数够多,不要以为一百两百次就会一直<em>loss</em>下降或者准确率一直提高,会有一点震荡的。只要总体<em>收敛</em>就行。若<em>训练</em>次数够多(一般上千次,上万次,或者几十个epoch)没<em>收敛</em>,则试试下面方法:nn1. 数据...
caffe训练网络不收敛——有哪些坑需要我们去填
caffe<em>训练</em>网络不<em>收敛</em>——有哪些坑需要我们去填在深度学习领域,caffe已经被广泛使用了,但是对于caffe新手来说,在网络<em>训练</em>过程中总会遇到一些摸不着头脑的<em>问题</em>不知道如何解决,本文总了我在使用caffe过程中的一些经验。n自己定义网络结构——<em>训练</em> n自己定义网络结构在<em>训练</em>过程中一般需要两个文件:solver.prototxt 和 train-val.prototxt. 其中solver文件中存放
【Darknet】【yolo v2】训练自己数据集的一些心得----VOC格式
-------【2017.11.2更新】------------SSD传送门----------http://blog.csdn.net/renhanchi/article/details/78411095http://blog.csdn.net/renhanchi/article/details/78423343-------【2017.10.30更新】------------一些要说的----...
训练收敛的几种可能
1. 学习率n2. 数据未归一化n3. 网络结构不合理
卷积神经网络/CNN/深度学习在做分类训练时不收敛的解决方案
<em>训练</em>网络的过程就是网络学习图像特征的过程,正所谓网络好用但是不好<em>训练</em>,我算是真真切切的体会到了.之前<em>训练</em>手写汉字的时候,大概就花费了1个多小时,之前<em>训练</em>几十个分类的字符也耗费了很长的时间,逐渐让我我点怕<em>训练</em>了,不过今天,我好像找到了<em>问题</em>的解决方法,虽然不一定对每个人有用吧,但是的的确确省了太多的时间.用图说话n今天打算<em>训练</em>一个cnn分类这39类图片,n**他们大概长这个样子**200*100的大小,
caffe训练loss一直不收敛
1、数据和标签nn数据是否干净?nn标签是否从0开始,标签的nn2、学习率设定nn0.1,0.01,0.001。。。nn3、网络设定nn复杂<em>问题</em>,如果网络太简单也会导致一直不<em>收敛</em>nn nn参考文章:https://blog.csdn.net/sinat_24143931/article/details/78663659...
TensorFlow神经网络模型不收敛的处理
1、learning rate设大了0.1~0.0001.不同模型不同任务最优的lr都不一样。我现在越来越不明白TensorFlow了,我设置<em>训练</em>次数很大的时候,它一开始就给我“<em>收敛</em>”到一个值,后面的值都一样。2、归一化参考:rn深度学习<em>收敛</em><em>问题</em>;rn<em>训练</em>深度神经网络
深度学习网络训练收敛问题
不<em>收敛</em>描述及可能原因分析n不<em>收敛</em>情景1nn描述n从<em>训练</em>开始就一直震荡或者发散n可能原因nn图片质量极差,人眼几乎无法识别其中想要识别的特征,对于网络来说相当于输入的一直都是噪音数据,所以<em>loss</em>一直震荡无法<em>收敛</em>n大部分标签都是对应错误的标签nleaning rate 设置过大nnnn不<em>收敛</em>情景2nn描述n<em>训练</em>开始会有所下降,然后出现发散n可能原因nn数据标签中有错误,甚至所有标签都有一定的错误nl...
训练loss不下降原因集合
一,train <em>loss</em>与test <em>loss</em>结果分析4666train <em>loss</em> 不断下降,test <em>loss</em>不断下降,说明网络仍在学习;train <em>loss</em> 不断下降,test <em>loss</em>趋于不变,说明网络过拟合;train <em>loss</em> 趋于不变,test <em>loss</em>不断下降,说明<em>数据集</em>100%有<em>问题</em>;train <em>loss</em> 趋于不变,test <em>loss</em>趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数...
faster rcnn end-to-end loss曲线的绘制
绘制faster rcnn end-to-end<em>训练</em>方式的<em>loss</em>曲线,总的<em>loss</em>图,和4部分bbox <em>loss</em>/cls <em>loss</em>/rpn cls <em>loss</em>/rpn box <em>loss</em>
FCN模型训练中遇到的困难
前前后后大概忙了3个月了 中间穿插了导师给的项目和论文的任务  总算把fcn给run起来了n之前也有参考一些博客作为指导 不过博客有的是有误导性的 导致我的<em>loss</em>居高不下 根本不<em>收敛</em>n还有一些奇奇怪怪的<em>问题</em> 我在下面逐一列举n<em>问题</em>1.使用infer.py时候遇到no display name and no $DISPLAY environment variablennn出现这个<em>问题</em>
SSD-Tensorflow训练过程中遇到的坑
参考:1)目标检测SSD+Tensorflow <em>训练</em>自己的<em>数据集</em> - zcc_TPJH - CSDN博客 https://blog.csdn.net/weixin_39881922/article/details/80569803nn 2)SSD-Tensorflow<em>训练</em>总结 - 你的朋友不及格,你很难过;你的朋友考了第一,你更难过。 - CSDN博客 https://bl...
py-faster-rcnn算法caffe配置,训练及应用到自己的数据集
下载faster r-cnnngit clone --recursive https://github.com/rbgirshick/<em>py-faster-rcnn</em>.gitn进入<em>py-faster-rcnn</em>/libnmaken结果如下图:nnnnn进入<em>py-faster-rcnn</em>/caffe-fast-rcnnnncp Makefile.config.example MAkef
GPU训练loss不下降,CPU正常
数据并行机制相关rnrn
使用YOLO训练自己的数据样本经验总结
YOLO近一年多新出的一种object detection的方法,关于目标检测及YOLO的介绍可参见:基于深度学习的目标检测研究进展 , CVPR2016目标检测之识别效率篇:YOLO, G-CNN, Loc-Net ,RCNN学习笔记(6):You Only Look Once(YOLO):Unified, Real-Time Object Detection。 n1. 好,现在我们使用yolo一
分类神经网络把所有的input只能分成一类的原因/神经网络不能收敛/神经网络loss很大不下降
之前出现过两次这种情况,也就是出现这类情况,对于所有的输入,网络都只能判断成某一类,比如对于所有的输入,输出都是“猫”。还是总结下,当然如果有幸被大佬们看到的话,希望大佬们能给予补充。nn做了一点实验,但是不是非常的全面,也没有考虑到每一种情况,而且对于参数的选择也比较随意。所以这个博客的结论是根据作者所采用的网络,一开始设置的超参得出的结论,仅供参考。nn一、网络结构nn本次实验采用的<em>数据集</em>是c...
YOLOv3训练的过拟合问题
在<em>训练</em>YOLOv3的时候用了4个类别,car,bus,truck和tricycle,<em>训练</em>了2w轮,<em>loss</em>不到0.2n但是在<em>训练</em>集和测试集分别测试mAP的时候缺出现了很大的差距。nval result:nclass name: busn('ap', 0.22807790544644976)nclass name: carn('ap', 0.63199984246435803)nclass name...
损失函数震荡不收敛可能原因:tf.train.shuffle_batch
​ 在制作tfrecords<em>数据集</em>的时候,比如说将cifar数据转换成tfrecords<em>数据集</em>,一般会用到tf.train.shuffle_batch函数,而损失函数震荡不<em>收敛</em>的原因就可能就是<em>数据集</em>制作出现<em>问题</em>。n​ Cifar-10<em>数据集</em>包含了airlane、automobile、bird、cat、deer、dog、frog、horse、ship、truck,10种分类...
使用Pytorch训练过程中loss不下降的一种可能原因
在使用Pytorch进行神经网络<em>训练</em>时,有时会遇到<em>训练</em>学习率不下降的<em>问题</em>。出现这种<em>问题</em>的可能原因有很多,包括学习率过小,数据没有进行Normalization等。不过除了这些常规的原因,还有一种难以发现的原因:在计算<em>loss</em>时数据维数不匹配。下面是我的代码:n<em>loss</em>_function = torch.nn.MSE_<em>loss</em>()noptimizer.zero_grad()noutput = mod...
运行网络时,loss始终不下降,MAE保持在0.5
n网络<em>问题</em>n数据<em>问题</em>nn经过排查,发现使用next_batch()函数取出的数据有<em>问题</em>,因为输入数据大小不一致,所以我使用 list() 来保存数据,因此读取出来的数据形式是list,导致上述<em>问题</em>n...
修改MTCNN中caffe源码,时计算loss时以对应标签是否为“-1”判别
MTCNN<em>训练</em>不<em>收敛</em>原因:rn地址: https://github.com/dlunion/mtcnnrnrn我们的<em>训练</em>数据标签格式:rnwider face:rnpos/001.jpg  1 x1 y1 x2 y2 (x1 y1 x2rn y2) -1 -1 -1 -1 -1 -1 -1 -1 -1 -1rnpart/001.jpg -1 x1 y1 x2 y2 (x1 y1 x2rn y2)
faster rcnn训练过程出现loss=nan的解决办法
出现了<em>loss</em>=nan说明模型发散,此时应该停止<em>训练</em>。 n出现这种错误的情况可能有以下几种,根据你自己的情况来决定。nn1、GPU的arch设置的不对nn打开./lib/setup.py文件,找到第130行,将gpu的arch设置成与自己电脑相匹配的算力,这里举个例子,如果你用的是GTX1080,那么你的算力就是6.1,此时就需要将-arch=sm_52改成-arch=sm_61。 n可以在这个网...
训练SSD时出现的数据问题
使用COCO2014<em>训练</em>SSD网络。参照https://github.com/weiliu89/coco.git的方法处理<em>数据集</em>。生成lmdb格式数据。开始<em>训练</em>之后报这种错误。OpenCV Error: Assertion failed ((scn == 3 || scn == 4) &amp;amp;&amp;amp; (depth == CV_8U || depth == CV_32F)) in cvtCol...
使用py-faster-rcnn训练自己的数据集
具体流程按照这篇博客的内容来的: nhttp://blog.csdn.net/sinat_30071459/article/details/51332084 n但是在<em>训练</em>过程中还是出现了一些<em>问题</em>,建议提前将这些改好再<em>训练</em>。 n1. 首先是这个<em>问题</em>: nb2.text_format.Merge(f.read(), self.solver_param) AttributeError: ‘module’
pytorch训练神经网络loss刚开始下降后来停止下降的原因
<em>问题</em>提出:用pytorch<em>训练</em>VGG16分类,<em>loss</em>从0.69下降到0.24就开始小幅度震荡,不管如何调整batch_size和learning_rate都无法解决。nn原因:没有加载预<em>训练</em>模型nn那么<em>问题</em>来了,官方给出的是1000类的ImageNet预<em>训练</em>模型    https://download.pytorch.org/models/vgg16-397923af.pth,而我要做的是20类...
caffe ssd 训练过程中出现nan问题解决
在<em>训练</em>ssd过程中出现nan的,解决方法:将学习率调低即可。nn但需要注意一点,需要删除models/VGGNet/路径下的临时文件,不然会从中断点继续执行。
17.11.15 centerloss使用的时候需要注意的一些点
在接触了center<em>loss</em>这么久之后,总结了一些需要注意容易出错的点: n1. 在使用之前应该对caffe重新编译一下。记得,当初刚接触caffe不是很久的时候,对最最最最最初级的方法还不是很了解,傻乎乎的直接拿过来就用,一直报错,很是难受。后来再大神的指点下,把caffe重新编译了一下。。。 n2. 如果将center<em>loss</em>要用的自己的caffe网络中的话,在已经编译的基础上,需要做的就是在原
YOLO的Loss中为什么要对不含目标的检测框设置较小权值?
在YOLO v1中,<em>loss</em>里对不含目标(no object)的检测框(bounding box)进行了权值 λnoobj 的设置(0.5),在原文中解释为nnAlso, in every image many grid cells do not contain any object. This pushes the “confidence” scores of those cells towar...
batch—size的大小对loss收敛的影响
batch—size的大小对<em>loss</em><em>收敛</em>的影响nnnbatch_size 太小:网络<em>收敛</em>不稳定,<em>收敛</em>慢,<em>loss</em>来回震荡,batch_size的方向不能大致的代替整个样本的方向。nbatch_size 太大:计算量大,内存消耗多,前期<em>收敛</em>可能快,<em>训练</em>次数减少。n由于GPU的特性,batch_size最好选用 8 , 16 ,32 ,64….n...
使用caffe训练CNN,Loss不下降,维持在某个数字-log(类别数)
这也是困扰我一段时间的<em>问题</em>,<em>loss</em>不下降,一直在找其他的原因,权重初始化从gaussian到xiavier,查看了反向传播的diff后,总觉得梯度消失了,还想着加上BN层。n以上统统没有效果,为什么呐?n数据没有shuffle!每一个minibatch几乎都是同一类,这样必然出现大<em>问题</em>。n为什么呐?ncaffe中的优化方法默认是SGD,这里的SGD其实是minibatch-SGD算法,计
finetuning出现问题loss 为Nan的情况
1.        不run train_op 发现Nan的情况消失,说明不是原始模型的<em>问题</em>,2.        将每一帧的<em>loss</em> 输出发现<em>loss</em> 波动很大,达到几千,小到很小。然后就变为Nan,将变为Nan的数据不考虑入计算,后面还是会变为Nan,说明不是数据的<em>问题</em>。3.        最终将由frames_<em>loss</em>=[….]计算batch <em>loss</em> 的tf.reduce_sum 变为tf....
shell命令提取数据 faster RCNN 画loss曲线
grep Iteration 1.log | grep <em>loss</em> | awk '{print $6,$9}' | sed 's/\,//'&amp;gt; <em>loss</em>.data提取后的信息可以用另外一个脚本完成<em>loss</em>曲线的绘图工作。import matplotlib.pyplot as pltny = []nx = []nwith open('<em>loss</em>_data') as f:n for line ...
在Pytorch下,由于反向传播设置错误导致 loss不下降的原因及解决方案*
在Pytorch下,由于反向传播设置错误导致 <em>loss</em>不下降的原因及解决方案rn本人研究生渣渣一枚,第一次写博客,请各路大神多多包含。刚刚接触深度学习一段时间,一直在研究计算机视觉方面,现在也在尝试实现自己的idea,从中也遇见了一些<em>问题</em>,这次就专门写一下,自己由于在反向传播(backward)过程中参数没有设置好,而导致的<em>loss</em>不下降的原因。rn对于多个网络交替rn【描述】简单描述一下我的网络结构,...
GAN不稳定原因
生成对抗神经网络由两部分组成:生成器和判别器。判别器尽可能使D(G(Z))接近0,而生成器尽可能生成同分布高质量的样本使D(G(Z))接近1。当生成器和判别器的性能<em>训练</em>得足够好时,达到纳什均衡(生成器生成的G(Z)与<em>训练</em>数据有相同的分布,对于判别器的每个输入x, D(x)=0.5)n生成器生成样本G(z)的损失函数取决于判别器的反馈。判别器判定样本为真的概率越高,生成器的损失函数越低。当样本趋向于...
loss收敛过小或finetune时跑飞情况分析
   最近在跑REDNet去噪网络,基于pytorch框架,输入输出图像被归一化到了0-1之间,<em>loss</em>使用的是L2 <em>loss</em>,理论最终<em>收敛</em>值为33左右。结果在之前<em>训练</em>好模型的基础上finetune,出现了这种情况: n n nnn   当使用L1或者输入为0-255时,并没有出现这种情况。这里使用L2 <em>loss</em>,输入0-1之间,<em>loss</em>先下降,再上升,这是很反常的,一般来说有以下<em>问题</em>导致...
Tensorflow Object Detection API训练自己数据集遇到的一个问题
用这个api<em>训练</em>自己的<em>数据集</em>时候,遇到一个<em>问题</em>,就是即使<em>训练</em>了十万步,最后<em>loss</em>始终降不下去,保持在5%左右(其实也还好,不算高),最后在测试集上测试,效果很不好,物体检测的框都标错。nn经过反复查找原因,最后找到<em>问题</em>的关键在于生成Tf_record文件的时候,读入图片的宽和高信息有误导致的。nn先来看看Object Detection的官方给的生成tf_record数据处理python文件中生...
GAN的Loss的比较研究(5)——能量Loss
上一篇文章讲的是《BEGAN: Boundary Equilibrium Generative Adversarial Networks》将能量函数(Energy)与Wasserstein Distance相结合,再辅之以比例反馈控制,让GAN迅速<em>收敛</em>,并保持了多样性。具体是:nnn让Auto-Encoder作为Discriminator,将原图与重建图的逐点差异(pixel-wise error...
CNN loss无法收敛的一种原因
在一次实验中,发现<em>loss</em>计算出为nan 型nn【原因】后来发现,输入数据的标签,没有从下标0开始(几个标签分别是0,10,20,30,40)。nn【解决】将标签除以10,donenn【注】https://blog.csdn.net/u014381600/article/details/54319030这篇博客说到,tensorflow中只要输入标签为Onehot就可以任意标注标签,但是避免出错,...
5.Tensorflow 二分类深度网络训练loss维持在0.69附近
这个<em>问题</em>很多人在<em>训练</em>自己或者迁移别的网络的时候都会遇到,特别是二分类这样的简单网络,感觉无处着手,都他妈的是对的,就是Loss不动。到底什么原因了?吐槽的网址很多。比如这里,或者这里。若想知道解决办法,请直接跳到文章最后。nnn0.69是个什么数?n一般采用的都是cross entropy <em>loss</em> value,定义如下:nnnnnnnnnn发现就是网络预...
对于上次YOLO的一些遗留问题做一下解释
对于上次YOLO的一些遗留<em>问题</em>做一下解释nntianbing010@126.comnnhttp://www.cnblogs.com/mcjjnn作者:马春杰杰nn2017年6月14日22:36:58nn博客已迁至[马春杰杰]http://www.machunjie.com/deeplearning/33.htmlnn请移步新博客,谢谢。!nnn...
损失还很高但是模型不收敛了怎么办?
陷入局部最优?nsgd:调大学习率n换用adam等优化方法n递进学习->1000->10000->80000n调小batch:(A.全部数据作为一个batch和 B.每个采样作为一个batch)一般用的时候,在非监督<em>训练</em>阶段,可以先用B方法创建初始模型, n然后在监督<em>训练</em>阶段,选择小batch size进行初步<em>训练</em>,让模型跳出局部极值,之后用大的batch size让模型<em>收敛</em>,这样一般能达到比较好的
caffe训练加BN层的网络时loss为87.3365的问题解决办法
caffe<em>训练</em>加BN层的网络时<em>loss</em>为87.3365的<em>问题</em>解决办法
训练网络时出现 误差loss 是 NAN
我的<em>训练</em>的是VGGnet19,<em>训练</em>从一开始<em>loss</em>就一直是NAN,ACC准确率也很低,而且一直也没有提高的迹象,在0.0xx徘徊。nn我发现我的网络中未加归一化操作,最后在每层都加了归一化层,解决了该<em>问题</em>,见下图,<em>loss</em>逐渐减少,ACC逐步增大,呵呵。nn(**提示**:在2015年 Very Deep Convolutional Networks for Large-Scale Image R...
yolov2训练自己的数据
最近在学习yolo下面是记录自己的<em>训练</em>过程:准备文件夹:VOC2007下面有:        Annotations ---- 这个文件夹是放所有xml描述文件的。        JPEGImages ---- 这个文件夹是放所有jpg图片文件的。      ImageSets -&amp;gt; Main ---- tain.txt,val.txt文档内容是所有<em>训练</em>集图片的名字,没有后缀名(如果直接生成...
SegNet 网络训练中的问题
SegNet <em>训练</em>原文参考: http://mi.eng.cam.ac.uk/projects/segnet/tutorial.html nSegNet <em>训练</em>方式见: http://blog.csdn.net/caicai2526/article/details/77169871n存在的两个<em>问题</em>:nproblem 1:我用源代码做了二分类的分割,结果<em>loss</em>值浮动很大,<em>loss</em>值一直在0.1
SSD训练过程中出现问题总结
    Check failed: 0 == bottom[0]-&amp;gt;count() % explicit_count (0 vs. 60) bottom count (209472) must be divisible by the product of the specified dimensions (84)nn   这意味着test.prototxt内的mbox_conf_reshap...
tensorflow下mnist实例,关于迭代次数及随机取数据集大小问题
在官方文档中,采用的是1000次迭代,每次随机选取100个<em>数据集</em>进行<em>训练</em>。 最后的精确值为91%左右。提高迭代次数到10000次,随机选取任是100个时,精确值为92%左右。可以理解,毕竟多次迭代。然而当迭代为10000次,每次1000个<em>数据集</em>时,精确度仅有9.8%,相当于等概率随机猜。正常来说应该会提高精确度,然而不是。原因是: n随机梯度最后不<em>收敛</em>导致的。 n n官方文档中采用交叉熵来计算los
py-faster-rcnn+GPU的编译安装以及训练自己的数据集
这篇博文是自己参考了很多博文做的总结,参考的博文见文中或者后面的链接。nnnn一、配置caffe环境nn机器环境: nUbuntu 14.03 nCUDA8.0 npython2.7nn服务器已经安装好了CUDA这些,因此编译caffe GPU的时候,主要有两点: nnn 1.caffe源码的编译,修改Makefile.config,Makefile n 2.protobuf2.5的编译,修
py-faster-rcnn用自己的数据训练模型(CPU版本)
系统环境ubuntu14.04python2.7--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------...
【深度学习】在Dog Breed Identification中使用Inception-V4遇到过拟合的问题解决进展
在Plant Seedlings Classification中自己根据谷歌的paper用keras搭建了Inception-V4,但在Plant比赛中因为<em>数据集</em>较简单,没有出现过拟合<em>问题</em>,模型成功<em>收敛</em>。但在Dog比赛中一开始便出现了过拟合,<em>训练</em>集<em>loss</em>不断下降,测试集<em>loss</em>在在3.6附近震荡。先在averagepool之后,fc之前加了0.5的Dropout,效果不理想,测试集<em>loss</em>依旧在
训练网络出现loss为NaN的情况
1.梯度爆炸nn原因:在学习过程中,梯度变得非常大,使得学习的过程偏离了正常的轨迹。 n症状:观察输出日志中每次迭代的<em>loss</em>值,发现<em>loss</em>随着迭代有明显的增长,最后因为<em>loss</em>值太大以致于不能用浮点数去表示,所以变成NaN。 n可采取的方法: 1.降低学习率,比如solver.prototxt中base_lr,降低一个数量级。如果在你的模型中有多个<em>loss</em>层,就不能降低基础的学习率base_l...
使用faster rcnn训练自己的数据(py-faster-rcnn
使用RGB大神的<em>py-faster-rcnn</em><em>训练</em>自己的数据进行目标检测
[深度学习] loss不下降的解决方法
链接:https://blog.ailemon.me/2019/02/26/solution-to-<em>loss</em>-doesnt-drop-in-nn-train/nnn当我们<em>训练</em>一个神经网络模型的时候,我们经常会遇到这样的一个头疼的<em>问题</em>,那就是,神经网络模型的<em>loss</em>值不下降,以致我们无法<em>训练</em>,或者无法得到一个效果较好的模型。导致<em>训练</em>时<em>loss</em>不下降的原因有很多,而且,更普遍的来说,<em>loss</em>不下降一...
caffe训练时,loss一般出现87.3365则保持不变
caffe<em>训练</em>时,<em>loss</em>一般出现很奇怪的值:87.3365,则保持不变下去。直觉就有<em>问题</em>。nnnn搜索资料,找到多篇帖子:nnhttps://blog.csdn.net/u011215144/article/details/78479330nnhttps://blog.csdn.net/cheese_pop/article/details/79582077nnhttps://blog.csdn....
三元组损失 Triplet Loss及其梯度
Triplet Loss及其梯度nnhttps://blog.csdn.net/jcjx0315/article/details/77160273nn nnn Triplet Loss简介n n我这里将Triplet Loss翻译为三元组损失,其中的三元也就是如下图的Anchor、Negative、Positive,如下图所示通过Triplet Loss的学习后使得Positive元和Anchor...
TensorFlow训练过程遇到的问题
TensorFlow<em>训练</em>过程遇到的<em>问题</em>nn第一次自己实现一个完整程序,遇到不少坑。等我这个程序搞完,我要入坑pyTorch。。。。nnnn<em>训练</em>不<em>收敛</em>nnn 我的程序是一个分类程序,刚开始的时候<em>训练</em>不<em>收敛</em>,accuracy基本为零,预测输出只输出一类。愁的我脑仁疼。解决办法:对输入加一个正则化。不得不说,微调对<em>训练</em>过程太重要啦。nnnnn<em>训练</em>步数增多,权重以及损失变为nannnn 只是我<em>训练</em>过程...
解决ssd训练时出的问题
1。出现 modul has no LamMap(),以及no modul named moble_libs的<em>问题</em>n解决办法,在该函数所在的.py文件的头部加入caffe的绝对路径nimport sysnsys.path.insert(0,'/home/cv503/team_file/liling/SSD/caffe-ssd/python');nimport caffen即可解决。
Triplet Loss及其梯度
Triplet Loss及其梯度n n Triplet Loss简介n我这里将Triplet Loss翻译为三元组损失,其中的三元也就是如下图的Anchor、Negative、Positive,如下图所示通过Triplet Loss的学习后使得Positive元和Anchor元之间的距离最小,而和Negative之间距离最大。其中Anchor为<em>训练</em><em>数据集</em>中随机选取的一个样本,Positive
Tensorflow中用VGG19做二分类-loss出现0.693174解决方法
在Tensorflow下用VGG19 pre-train的model跑一个人脸表情库,做一个二分类。 n出现<em>loss</em>除了迭代的第一个值,其余输出均是0.693174 n百度解决方法,发现需要在全连接层的权重加权重衰减(l2正则化) n在把权重衰减<em>loss</em>和交叉熵<em>loss</em>添加到总<em>loss</em>里。 nTensorflow中具体实施如下: flattened_shape = 8 * 8 * 512
利用Retinanet 训练自己的数据集 | keras retinanet - focal loss 网络训练过程中使用csv格式进行训练自己的数据
一、csv数据准备(需要利用Pascal voc2007<em>数据集</em>形式来生成)在生成csv<em>数据集</em>时候,需要先将自己的数据做成VOC 2007形式,参考上篇博客:VOC2007<em>数据集</em>制作-进行自己<em>数据集</em>的<em>训练</em>,可用于目标检测、图像分隔等任务Pascal voc2007 <em>数据集</em>转换成csv<em>数据集</em>时候,将会使用voc2007<em>数据集</em>中三个文件JPEGImages,Annatations,ImageSets中M...
DNN训练过程中的一些问题以及技巧
DNN<em>训练</em>过程中的一些<em>问题</em>以及技巧nnn首先介绍几个概念 nlower layers :浅层的网络层,主要对简单的特征进行梯度,如边缘、角点等ndeeper layers:深层的网络层,主要用于提取十分复杂的特征。n在使用DNN的过程中,我们可能会遇到一些<em>问题</em> n梯度弥散或者梯度爆炸,这会提升DNN的<em>训练</em>难度n对于大型的网络来说,其<em>训练</em>速度十分慢n如果网络参数过多,很容易发生过拟合的<em>问题</em>
keras GAN训练loss不发生变化,accuracy一直为0.5
可能是激活层的激活方式与损失函数不匹配。nn一般使用sigmoid,损失函数使用binary_crossentropy ;使用softmax,损失函数使用categorical_crossentropy。nn作者:Yohannan链接:https://www.zhihu.com/question/36307214/answer/364963552n来源:知乎n著作权归作者所有。商业转载请联系作者获...
Tensorflow中用VGG19做二分类loss出现0.693174解决方法2
接上次相同题目的blog,发现权重加了l2正则化后,开始的<em>loss</em>很大,逐渐<em>收敛</em>到0.693174后不变……在Tensorflow下用VGG19 pre-train的model跑一个人脸表情库,做一个二分类。 n出现<em>loss</em>除了迭代的第一个值,其余输出均是0.693174 n我用的梯度下降函数是Adam解决方法: n将梯度下降函数改为SGD+Momentum(0.9) n开始时<em>loss</em>在0.69
win10下使用caffe训练自己的数据,车牌二分类
caffe编译参考:http://blog.csdn.net/cym1990/article/details/72630584nn1.数据格式转换nnCaffe采用leveldb或者lmdb的数据格式。nn第一步就是数据的格式转换了。nn编译如下图所示工程,可以生成文件convert_imageset.exennnnn本次<em>训练</em>是使用的车牌数据,只分2类,有车牌,无车牌。
caffe 准确率一直震荡,从0到0.6反复
可能原因:rn猜测版,未经证实,如有虚言,不要怪我……rn一、学习率太大,一般说法,但是通过lr policy调试学习次数很多之后应该不会出现这种情况吧rn二、solver里的test interval* train batch size 应该>=train image 总数,保证全部图片循环一轮之后再测试。之前我就是test interval设的太小了,导致accuracy一直震荡……rn   
yolo训练训练结果评估环节
在yolo中,怎么知道自己已经<em>训练</em>的怎么样了呢?自然是希望把<em>训练</em>过程中的<em>loss</em>等数据可视化一下,这篇文章中,我们主要就介绍一下这些。 n1. 首先在<em>训练</em>开始的时候需要把终端信息记录到文件,我这里使用的命令是| tee train_log.txt ,可参考:Linux中记录终端(Terminal)输出到文本文件 。我们会得到这样一个文本文件: n n2. 下面我们就可以用python对其进行处理了,
faster rcnn caffe版学习并微调训练自己的数据集
这篇文章记录了我使用py-fast -rcnn的经验,包括如何从零开始设置py-fast -rcnn,如何使用py-fast -rcnn对PASCAL VOC<em>数据集</em>进行demo<em>训练</em>,如何<em>训练</em>自己的<em>数据集</em>,以及我遇到的一些错误。所有的步骤都基于Ubuntu 16.04 + CUDA 9.0。论文地址nn目录nn设置faster rcnnn pascal voc<em>数据集</em>上的测试n <em>训练</em>自己的<em>数据集</em>n ...
YOLO-V3训练中会遇到的问题
0.<em>数据集</em>的准备,采用voc格式的<em>数据集</em>,<em>数据集</em>格式nnnVOCdevkitn -VOC2007n -JPEGImagesn -Annotationsn -ImageSetsn -Layoutn -Mainn -Segmentationnnn就是VOCdevkit里面包含VOC2007;VOC2007里面包含Annotations,ImageSets,JPEGI...
解决Caffe训练过程中loss不变问题
caffe中<em>loss</em>保持87.33和0.69的解决办法
loss曲线震荡分析
计算机视觉交流群:677855967,欢迎大家加入交流。nnLoss曲线震荡:nn分析原因:  1:<em>训练</em>的batch_size太小nn nn1.       当数据量足够大的时候可以适当的减小batch_size,由于数据量太大,内存不够。但盲目减少会导致无法<em>收敛</em>,batch_size=1时为在线学习。nn2.  batch的选择,首先决定的是下降方向,如果<em>数据集</em>比较小,则完全可以采用全<em>数据集</em>的形...
py-faster-rcnn用自己的数据训练模型
<em>py-faster-rcnn</em>用自己的数据<em>训练</em>模型环境:nubuntu14.04nCUDA7.5npython2.7nopencv2.0以上ncaffe及<em>py-faster-rcnn</em>的配置安装过程可以参考我的另一篇博客:深度学习框架caffe及<em>py-faster-rcnn</em>详细配置安装过程做<em>训练</em><em>数据集</em>的过程可以参考这篇博客:将<em>数据集</em>做成VOC2007格式用于Faster-RCNN<em>训练</em>1、下载VOC200
目标检测9:RFCN文章收集
方便自己查找与备忘nnhttp://blog.csdn.net/hx921123/article/details/55804685?locationNum=3&amp;amp;fps=1nn nn nnhttps://www.cnblogs.com/shouhuxianjian/p/7710707.htmlnn nn nnhttp://blog.csdn.net/baidu_32173921/articl...
SSD-Tensorflow 学习三:在自己的数据集上微调(优化)
踩了很多坑,花费了好久好久,内心的崩溃程度,还是自己太菜。nn在所有的准备工作都down了之后,接下来就需要使用模型在自己的<em>数据集</em>上进行<em>训练</em>。SSD-Tensorflow 官网上给出的建议是:可以先在imageNet预<em>训练</em>的模型的基础上利用自己的<em>数据集</em>对网络模型进行微调,即固定骨干网络参数,对附加网络结构进行<em>训练</em>,当模型<em>收敛</em>达到0.5mAP的时候,再对所有参数进行微调。nn预<em>训练</em>模型:models...
Caffe训练时Loss不下降问题
文章作者:Tyan n博客:noahsnail.com &amp;nbsp;|&amp;nbsp; CSDN &amp;nbsp;|&amp;nbsp; 简书nnnn1. <em>问题</em>描述nn今天使用Caffe进行分类模型<em>训练</em>时,迭代到一定次数后<em>loss</em>突然增大到某个固定值,然后保持不变。日志如下:nnnnI0705 14:57:14.980687 320 solver.cpp:218] Iteration 44 (2.60643 ...
物体检测之CornerNet
论文:CornerNet: Detecting Objects as Paired KeypointsnnGithub:https://github.com/umich-vl/CornerNetnn nnECCV2018 Oral,作者美国密歇根大学heilaw ,论文提出了基于左上和右下2点的有别于传统检测的检测框架,该框架是一种自下而上的检测框架。是一种先有检测顶点,再有物体边框的思想。而传统...
faster-rcnn训练自己的数据集遇到的问题
当之前运行出错,然后修改完再运行是一定要删除data/cache文件
关于训练深度学习模型deepNN时,训练精度维持固定值,模型不收敛的解决办法(tensorflow实现)
一、背景nn最近一直在做人脸表情的识别,用到的程序是之间的一篇文章中的程序:深度学习(一)——deepNN模型实现摄像头实时识别人脸表情(C++和python3.6混合编程)。这里我只进行了简单的程序修改。nn由于该程序是利用fer2013<em>数据集</em>做的,效果不是很好,人脸表情的识别精度仅有70%左右,因此我想自己制作<em>数据集</em>,自己<em>训练</em>模型,关于如何制作<em>数据集</em>,可参考文章:从零开始制作人脸表情的<em>数据集</em>。...
CIFAR-10数据集比MNIST训练难度高许多
CIFAR-10<em>数据集</em>比MNIST<em>训练</em>难度高许多nnMNIST<em>数据集</em>几乎很好<em>训练</em>,随便设计一个两层的全连接网络都能达到将近90%的测试精度,加入卷积层后更是可以轻易达到&amp;gt;97%的精度,但是同样的模型用来<em>训练</em>CIFAR-10,<em>训练</em>相同的epoch之后得到的结果却只有10%,只有<em>训练</em>几十个epoch之后测试精度才能达到80%,其间的上升速度简直慢如蜗牛nncifar10数据像素值的取值范围在[0...
Tensorflow+SSD初步接触,测试+训练
环境:Ubuntu16.04+CUDA8.0+Cudnn8.0v6.0+python3.5+tensorflow1.4测试官方的模型:1.  下载SSD-Tensorflow源码,下载模型ssd_300_vgg,(其实源码里有带的)存放在SSD-Tensorflow-master/checkpoints/目录下,并解压。2.   在目录 ../SSD-Tensorflow-master/noteb...
loss问题——工作中对出现的loss问题描述与解决参考
<em>问题</em>一:<em>loss</em>跑飞nn如下图描述nnnn1、学习率(lr)过大,可以自定义一个学习率的值(较小)开始学习。nn参考blog:https://blog.csdn.net/CHNguoshiwushuang/article/details/81784299nnnn也就是说,学习率如果设置过大,会导致其直接跑到另外一边,从而导致<em>loss</em>跑飞。当然真实的<em>loss</em>变化是在一个奇异空间里的,不是图上的那种二...
在ubuntu14.04下用自己的数据集训练faster-rcnn遇到的问题
在下面这篇文章的指导下进行<em>训练</em>nnhttp://blog.csdn.net/princepaul3/article/details/52313582#replynn(1)nn在<em>py-faster-rcnn</em>根目录下执行:nn./experiments/scripts/faster_rcnn_alt_opt.sh 0 ZF pascal_vocnn出现下面的错误:
Caffe与Lasagne使用——人脸关键点检测
Caffe与Lasagne 使用——人脸关键点检测nn一. Caffe求解回归<em>问题</em>n在使用Lasagne之前,我尝试用Caffe做回归<em>问题</em>。毕竟Lasagne是基于Theano的,所以<em>训练</em>速度上Caffe占优。nn1. 尝试方法n清理掉标签数据中的NaN值后,尝试过下述方法:n(1) 输出数据根据最大值和最小值归一化到[0,1]区间内......
目标检测问题中的-loss,val_loss
概念nn最近在用研究keras-yolov3,遇到了<em>loss</em>,val_<em>loss</em>这两个基本的概念,在这捋一捋这两位的到底有啥作用。nn<em>loss</em>:<em>训练</em>集上<em>loss</em>,就是总的<em>loss</em>;nnval_<em>loss</em>:测试集中的<em>loss</em>;nn过拟合nn(1)<em>loss</em>一直下降,<em>收敛</em>,而val_<em>loss</em>却上升,不<em>收敛</em>,说明过拟合了。<em>loss</em>下降、<em>收敛</em>,说明模型在<em>训练</em>集上,表现良好,但是却在验证集、测试集上没有良好的表现...
用 caffe做图像分割实验时,loss值很诡异
最近在做图像分割的实验,使用的是CRF as RNN的网络,但是<em>训练</em>起来有些诡异,<em>loss</em>降低得飞快,不一会儿就降一半。然后一直到个位数时,我觉得应该可以test了。然后使用<em>训练</em>好了的模型,用python接口加载,输出结果一看,全是黑的,没有分割。仔细想想,这个<em>loss</em>值这么低,不应该会这样阿!难道是<em>loss</em>计算错了?然后再想想最后<em>loss</em>层的输入,一个是网络的最后计算结果。于是在test中把最后一
loss 在2左右波动,准确率低
用的全连接神经网络,识别图片。<em>训练</em>集上<em>loss</em>一直在2.0左右波动。准确率0-0.5跳动。n<em>训练</em>集上准确率10%左右。<em>训练</em>集有图片320张,测试集70张。是我的模型出<em>问题</em>了还是<em>数据集</em>太小?nnn实在是不知道哪出错了,一般什么样的错误会出现这种情况???nn...
Yolo v2 训练 NAN解决过程
主要参考https://zhuanlan.zhihu.com/p/25110930<em>问题</em>描述今天在用yolo<em>训练</em>自己的<em>数据集</em>的时候,一开始<em>训练</em>过程中的<em>loss</em>还很正常地在下降。结果到了几个个batch的地方突然就出现<em>loss</em> = nan的情况。其实到现在自己也没有发现到底是什么导致了nan,但是参考上面这篇文章,至少暂时解决了这个<em>问题</em>。解决过程1)首先检查了代码是不是对的。一般出现nan,第一反应是:
keras做CNN的训练误差loss的下降
采用二值判断如果确认是噪声,用该点上面一个灰度进行替换。nn噪声点处理:对原点周围的八个点进行扫描,比较。当该点像素值与周围8个点的值小于N时,此点为噪点 。nn处理后的文件大小只有原文件小的三分之一,前后的图片内容肉眼几乎无法察觉。nn但是这样处理后图片放入CNN中在其他条件不变的情况下,模型<em>loss</em>无法下降,二分类图片,<em>loss</em>一直在8-9之间。准确率维持在0.5,同时,测试集的<em>训练</em>误差持续下...
用Faster RCNN训练自己的数据集
Faster RCNN(py caffe)工程各个目录的作用:rnrncaffe-fast-rcnn:caffe框架目录;rndata:用来存放pretrained(预<em>训练</em>)模型以及读取文件的cache缓存,还有一些下载模型的脚本;rnexperiments:存放配置文件以及运行的log文件,另外这个目录下有scripts,里面存放end2end和alt_opt两种<em>训练</em>方式的脚本;rnlib:用来存放一些p...
强连通分量及缩点tarjan算法解析
强连通分量: 简言之 就是找环(每条边只走一次,两两可达) 孤立的一个点也是一个连通分量   使用tarjan算法 在嵌套的多个环中优先得到最大环( 最小环就是每个孤立点)   定义: int Time, DFN[N], Low[N]; DFN[i]表示 遍历到 i 点时是第几次dfs Low[u] 表示 以u点为父节点的 子树 能连接到 [栈中] 最上端的点   int
网络命令一览表( 绝对实用)下载
网络命令一览表( 绝对实用) 可以自已亲手完成一些设置,还可以检查出自已的网络状态呢! 相关下载链接:[url=//download.csdn.net/download/alwmp/2130494?utm_source=bbsseo]//download.csdn.net/download/alwmp/2130494?utm_source=bbsseo[/url]
零基础学Java(PPT)下载
零基础学Java(PPT)零基础学Java(PPT) 相关下载链接:[url=//download.csdn.net/download/dfr142/2177503?utm_source=bbsseo]//download.csdn.net/download/dfr142/2177503?utm_source=bbsseo[/url]
奇声8160小(1389L 16M)下载
奇声8160小(1389L 16M)原机数据 相关下载链接:[url=//download.csdn.net/download/pengjun896046/3034241?utm_source=bbsseo]//download.csdn.net/download/pengjun896046/3034241?utm_source=bbsseo[/url]
文章热词 机器学习教程 Objective-C培训 交互设计视频教程 颜色模型 设计制作学习
相关热词 mysql关联查询两次本表 native底部 react extjs glyph 图标 大数据学习数据集 大数据机器学习数据集
我们是很有底线的