caffe初学者accuracy很低和图片分类失败问题 [问题点数:20分,无满意结帖,结帖人hanweijuan_86]

Bbs1
本版专家分:0
结帖率 100%
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
caffe测试精度与验证精度不一致
当时不记得是在解决什么<em>问题</em>的时候看到说要在mean = np.load(mean_file)后面加上.mean(1).mean(1) 看代码看了好一段时间都没有解决同一数据集在测试和训练验证时得到的精度不一致的<em>问题</em> 看到网上也有人问类似的<em>问题</em>,但解决方法对于我的情况都不适用 于是尝试删掉后面的.mean(1).mean(1),结果就意外地解决了这个<em>问题</em>,而且程序也没有报错
Cannot copy param 0 weights from layer 'conv1'; shape mismatch.
当我使用训练好的<em>caffe</em>model准备测试一下<em>图片</em>的时候,我定义了deploy.prototxt文件,然后利用bat脚本进行测试,发现报错,错误如下:错误解决:打开我的deploy.prototxt文件,把Input_param中的数据改掉,把1通道改为3通道,shape参数的意思:第一个参数表示batch_size,第二个参数表示通道(彩色为3通道),剩下两个表示图像大小,我用的是黑白图像,所...
Android 颜色透明度对应的十六进制表格 + Android版本对应级别表格
一、颜色透明度和十六进制对应的表格:透明度16进制100%099%398%597%796%0A95%0D94%0F93%1292%1491%1790%1A89%1C88%1E87%2186%2485%2684%2983%2B82%2E81%3080%3379%3678%3877%3B76%3D75%4074%4273%4572%4771%4A70%4D69%4F68%5267%5466%5765%...
tensorflow+faster rcnn代码解析(二):anchor_target_layer、proposal_target_layer、proposal_layer
接在tensorflow+faster rcnn代码理解(一):构建vgg前端和RPN网络之后,对于每张输入图像(600×800)RPN会产生17100个anchor,构建RPN后会输出4个tensor,维度如下: rpn_cls_prob:(1,38,50,18) rpn_bbox_pred:(1,38,50,36) rpn_cls_score:(1,38,50,18) rpn_cls_...
TensorFlow+深度学习笔记3
TensorFlow+深度学习笔记3 标签(空格分隔): TensorFlow+深度学习笔记 本周掌握的知识: 熟悉AlexNet网络模型结构,并使用AlexNet网络在ImageNet数据集上训练好的模型进行Inference 熟悉VGG网络模型结构,并使用VGG网络在ImageNet数据集上训练好的模型进行Inference 了解将<em>caffe</em>模型转换为TensorFlow模型 ...
SpringMVC+easyui显示数据
最近做毕业设计,想用easyui,先学习一下CRUD,今天先弄了个表格显示数据库的数据。jsp页面还有很多其它元素,我就不贴上去了。我显示数据的JSP为/WebContent/WEB-INF/views/user/list.jsp 。关键信息如下: width:700p
HOG+SVM行人检测
前言 在前面的博客:HOG特征检测学习笔记中,介绍了HOG特征,也附有代码实现。这篇博客中将会使用HOG+SVM这一经典的目标检测算法来进行行人检测,但是不会讨论HOG或者SVM的理论部分,如果有不懂的请自行查阅以前的博客。我分别写了python版本和C++版本的demo,数据集是直接下载了别人的,这些都会附在文章的最后。 网上也有很多介绍HOG的不错的文章: HOG+SVM行人检测的...
caffe 进行自己的imageNet训练分类:loss一直是87.3365,accuracy一直是0
<em>caffe</em> 进行自己的imageNet训练<em>分类</em>:loss一直是87.3365,<em>accuracy</em> 一直是0,可能的原因是: 标签的<em>问题</em>: imagelist中,图像<em>分类</em>的标签label一定要从0开始,<em>分类</em>层的 num_output 和 标签的值域 不符合: a. 要知道imagenet是进行1000类的<em>分类</em>任务,我自己的数据是一个二<em>分类</em>,就一定要把最后‘fc8’InnerProduct的<em>分类</em>
caffe学习小问题(1):caffe中的Accuracy
今天才偶然发现,<em>caffe</em>在计算Accuravy时,利用的是最后一个全链接层的输出(不带有acitvation function),比如:alexnet的train_val.prototxt、<em>caffe</em>net的train_val.prototxt下图是这两个网络训练配置文件(prototxt文件)计算Accuray的配置文件截图的截图(对于该部分,alexnet和<em>caffe</em>net是一致的) 最后一个
deep learning实践经验总结2--准确率再次提升,到达0.8,再来总结一下
deep learning实践经验总结 最近拿<em>caffe</em>来做<em>图片</em><em>分类</em>,遇到不少<em>问题</em>,同时也吸取不少教训和获得不少经验。
caffe训练灰度图像的时候识别率很高,但是在使用matlab接口重新测试的时候识别率却很低
今天在训练灰度图像的时候,发现一个<em>问题</em>就是:<em>caffe</em>训练灰度图像的时候识别率很高,但是在使用matlab接口重新测试的时候识别率却<em>很低</em>。原来在使用<em>caffe</em>的matlab接口测试灰度图像的时候,需要对原图进行一次转置,这个坑找了好久才发现的。
caffe 人脸识别
转载自: 【Caffe实践】基于Caffe的人脸识别实现 - 1983的专栏 - 博客频道 - CSDN.NET http://blog.csdn.net/chenriwei2/article/details/49500687 导言 深度学习深似海、尤其是在图像人脸识别领域,最近几年的顶会和顶刊常常会出现没有太多的理论创新的文章,但是效果摆在那边。 D
为了caffe(七)做kaggle上的mnist
为了<em>caffe</em>(七)做kaggle上的mnist   因为蠢啊,因为不懂才写这么详细啊   第0步: 刚刚不能验证注册kaggle,注册需要VPN翻墙一下             第一步:  老样子    dong@dong-Lenovo-G480:~$ sudo modprobe nvidia_352_uvm [sudo] password for don
caffe记录错误
报错:source param shape is 20 3 5 5 ;target param shape is 20 1 5 5 用<em>caffe</em>中mnist网络训练自己的数据得到的<em>caffe</em>model,每次运行会得到不一样的结果。之后预测时将自己生成的deploy.prototxt也同样替换成mnist中的lent.prototxt,就发生这个报错。 原因:原始shape不一致,同时又很明确的指
Caffe SSD 配置安装
在Ubuntu14.04下运行SSD的ssd_pascal_webcam.py,解决了很多错误,关键词如下:1.error: ‘type name’ declared as function returning an array escape 2.cudaSuccess (8 vs. 0) invalid device function 3.Cannot copy param 0 weights from 等等
在自己的数据集上微调Light CNN
-
Caffe -SSD 训练报错,Cannot copy param 0 weights from layer 'conv1_1'; shape mismatch.
-
NOIP2018提高组初赛题目+解析
全国青少年计算机程序设计大赛究竟何时创办? 前缀与后缀为何混淆不清? Catalan数到底表示什么? 是什么让一台只有红蓝两色球的抽奖机如此火爆? 关机的手机究竟能否带进考场? 负权回路与Dijkstra算法有什么不为人知的关系? 图灵奖到底是哪方设立? 四人郊游为何只有两人如约? 是什么让++cnt陷入无意义的循环? 双向链表究竟是何方神圣? 小猪又为何在两家商店间因巨额消费徘徊不定? 欢迎来...
群联PS2251-07主控(Kingston64G)量产CD-ROM+移动磁盘模式过程记录
最近在京东新买了个Kingston64g U盘,打算把它量产成CD-ROM光驱+移动磁盘模式。 U盘量产真是个折磨人的体力活儿,主要的原因是这些量产工具软件都是为特定型号U盘、特定生产环境设计的,并不是面向大众的产品,所以通用性很差,软件的容错性也很差,如果找不准正确的量产工具版本,正确的使用流程,怎么做都是徒劳。 上一次玩量产还是几年前了,过程几乎忘光了,而且过去的时间太长,以前的经验也没用了
caffe输出分类训练时验证集识别错误的样本
本文以mnist以及lenet为例1.将测试错误样本打印出来当运行测试时,最后的输出层为AccuracyLayer层。AccuracyLayer对前一层全连接层ip2的10个神经元输出结果进行排序,然后将最大值所对应的神经元序号与标签label进行比较,相等则判定预测正确;否则判定预测错误。所以,首先对<em>accuracy</em>_layer函数进行功能添加,打开src/<em>caffe</em>/layers/accura...
为什么caffe在训练时准确率很高,而用classification测试时准确率很低
预处理不一致造成的。 在训练时, 网络应该使用的是pixel mean, 而在使用网络时,在classification.cpp中默认计算的是channel mean.  解决方式: 在classification.cpp里的setMean方法计算的是<em>图片</em>每个channel的平均值,即channel_mean, 需要改成每个pixel 的平均值,即pixel_mean. 其实mean
使用caffe中的imagenet对自己的图片进行分类训练
实验流程 1.      数据集准备 获取训练<em>图片</em>集与验证<em>图片</em>集,并产生train.txt与val.txt,内容为<em>图片</em>路径与<em>分类</em>标签;将<em>图片</em>进行大小重设,设置为256*256大小;使用create_imagenet.sh脚本将2组<em>图片</em>集转换为lmbp格式。 2.      计算图像均值 使用make_imagenet_mean.sh计算图像均值,产生imagenet_mean.binary
Caffe做分类初步学习以及遇到的一些坑
1.安装 mac下安装<em>caffe</em>可以参考之前的一篇wiki(在mac下安装<em>caffe</em>),当然如果遇到其他<em>问题</em>请自行google。 对于各种linux系统,网上的教程已经非常多了。 2.<em>caffe</em>代码与架构层次简单介绍 <em>caffe</em>源码是Cpp语言的,基于一些外部的库,包括BLAS(矩阵计算),CUDA(GPU驱动),gflags,glog,boost,protobuf,hdf
caffe 准确率一直震荡,从0到0.6反复
可能原因: 猜测版,未经证实,如有虚言,不要怪我…… 一、学习率太大,一般说法,但是通过lr policy调试学习次数很多之后应该不会出现这种情况吧 二、solver里的test interval* train batch size 应该>=train image 总数,保证全部<em>图片</em>循环一轮之后再测试。之前我就是test interval设的太小了,导致<em>accuracy</em>一直震荡……    
Cannot copy param 0 weights from layer 'conv6'; shape mismatch. Source param shape is 21 512 1 1
今天在使用别人的模型训练自己的数据时候,遇到了如下错误: Cannot copy param 0 weights from layer 'conv6'; shape mismatch.  Source param shape is 21 512 1 1 (10752); target param shape is 5 512 1 1 (2560). To learn this layer's p...
学习笔记04·预测测试数据集、LeNet…
(1)用训练好的LeNet-5模型对数据进行预测,在git中敲入命令./Build/x64/Release/<em>caffe</em>.exe test -model examples/mnist/lenet_train_test.prototxt -weights examples/mnist/lenet_iter_10000.<em>caffe</em>model -iterations 100 。 (这里是我们第一次使用c
caffe问题大烦恼——Cannot copy param 0 weights from layer 'ip1'; shape mismatch.
原因:训练好的模型的参数(model文件)和协议中该层的参数不匹配(prototxt文件),主要是输入data不匹配解决方法:model文件和prototxt文件inputdata要一致,或者对输入<em>图片</em>resize,重新训练model。...
SSD: Single Shot MultiBox Detector 模型fine-tune和网络架构
前言 博主在上一篇中提到了两种可能的改进方法。其中方法1,扩充类似数据集,详见Udacity Self-Driving 目标检测数据集简介与使用 ,由于一些原因,并未对此数据集做过多探索,一次简单训练下,mAP为64%左右,这还需要进一步探索。而方法2,说的是fine-tune已经训练好的SSD model,最近没来得及进行调参,初次实验效果有限,先把过程和原理记录下来,免得忘了,然后还会说下
caffe训练lenet模型时出现check failed问题
我在<em>caffe</em>框架上用 lenet模型训练车牌,输出一共有34类,在lenet_train_test.prototxt修改了 num_output:34,但是在训练的时候提示 softmax_loss
caffe训练数据时,accuracy 一直是0
出现这种情况是因为<em>caffe</em>要求<em>分类</em>编号是从0开始。只需要将<em>分类</em>重新编号就ok~
CaffeNet AlexNet test准确率高,分类出错
之前在用CaffeNet和AlexNet训练数据以后,test时准确率很高,但进行<em>图片</em><em>分类</em>预测时,错误率特别高。后来在CaffeCN社区找到了答案。 <em>问题</em>原因: binaryproto文件本身是一个和图像大小一样的矩阵,每个位置是图像集在该点的均值,在train和test的时候,是将binaryproto文件转换成一个矩阵,并用图像减去该矩阵。 但是用C++方法的classificati...
caffe | 利用caffe训练图像多分类
    学习的<em>caffe</em>的目的,不是简单的做几个练习,而是最终落实到自己的项目或科研中去。因此,本文介绍一下,从自己的原始<em>图片</em>到lmdb数据,再到训练和测试的整个流程。一、数据的准备    有条件的同学,可以去ImageNet的官网点击打开链接,下载ImageNet<em>图片</em>来训练。但是我没有下载,因为我注册过程中一直出现bug。    也可以去这个网盘(点击打开链接)下载图像数据,包括手写数字.jpg...
caffe各种计算相似度的函数以及分类测试
import numpy as np import sys import collections from <em>caffe</em>.proto import <em>caffe</em>_pb2 from numpy import * import matplotlib.pyplot as plt import os import shutil from PIL import Image import matplotlib.p...
caffe 测试结果准确,classification的准确率很低原因
1.可能是mean_file预处理不一样,源代码的setMean函数是求均值。直接把mean赋值给mean_ 2.deploy的长宽设置错误 name: "VGG_ILSVRC_16_layers" input: "data" input_dim: 1 input_dim: 3 #height input_dim: 224 #width input_dim: 300 224是图
Cannot copy param 0 weights from layer 'fc160_1'; shape mismatch.
<em>caffe</em> 模型训练好了,拿去使用时出现以下错误: Cannot copy param 0 weights from layer 'fc160_1'; shape mismatch.  Source param shape is 160 26460 (4233600); target param shape is 160 5940 (950400). To learn this layer's...
keras GAN训练是loss不发生变化,accuracy一直为0.5
可能是激活层的激活方式与损失函数不匹配。 一般使用sigmoid,损失函数使用binary_crossentropy ;使用softmax,损失函数使用categorical_crossentropy。 作者:Yohanna 链接:https://www.zhihu.com/question/36307214/answer/364963552 来源:知乎 著作权归作者所有。商业转载请联系作者获...
caffe刚开始训练准确率很高,经过几次训练就达到饱和的原因
以我为例,我的<em>分类</em>任务只有2类,标类标的时候是从1开始,类标号是1,2。这样训练时,准确率很快就达到了饱和(其他操作都正确)。后来把类标2改为0之后,也就是说类标号从0开始的,然后再去训练网络,准确率就是一个慢慢收敛的过程,符合训练时的趋势。原因可能是<em>分类</em>任务的类标是从0开始的,所以类标号不能从1开始。
loss一直是87.3365,accuracy一直是1
训练时出现: loss一直是87.3365,<em>accuracy</em>一直是1 解决办法 调小学习率
keras实现基于vgg16的猫-狗二分类网络
import keras from keras.models import Sequential from keras.layers import Dense,MaxPooling2D,Input,Flatten,Convolution2D,Dropout,GlobalAveragePooling2D from keras.optimizers import SGD from keras.cal...
【深度学习】分类指标accuracy,recall,precision等的区别
在机器学习里面做一些<em>分类</em>任务时,经常会使用到一些评价指标,下面就一些常用的指标进行详细的说明。 上图表示为一个二<em>分类</em>的混淆矩阵(多<em>分类</em>同理,只需要把不属于当前类的其他类都考虑为负例),表格中的四个参数说明: True Positive(TP):预测为正例,实际为正例 False Positive(FP):预测为正例,实际为负例 True Negative(TN):预测为负例,实际为负例...
caffe 绘制训练集和测试集的loss和accuracy对比曲线
利用Caffe提供的脚本程序和Caffe训练日志画loss曲线与<em>accuracy</em>曲线。加强版,可以绘制对比曲线。辛辛苦苦修改作成的代码,大家还是给点儿资源分做鼓励吧,如果实在需要又没有资源分,请根据博客留下的联系方式联系我,发送到你邮箱。
多类别分类问题由 confusion matrix 到分类准确率(accuracy)的计算
conf_mat = confusionmat(y_true, y_pred); % 首先根据数据集上的真实 label 值,和训练算法给出的预测 label 值, % 计算 confusion matrixconf_mat = bsxfun(@rdivide, conf_
1、为什么caffe训练时训练集loss=0.06,验证集accuracy=0.98但测试集的准确率很低accuracy=0.67
1、https://groups.google.com/forum/#!topic/<em>caffe</em>-users/NzKEWAFPPfI 提出新的测试方法 2、https://github.com/pherrusa7/foodCAT/blob/master/<em>caffe</em>Wrapper.py github源码 3、https://www.zhihu.com/question/56017256  知乎上提
学习笔记: 源码 accuracy_layer.cpp 略明
AccuracyLayer 是计算<em>分类</em>准确率的层。输出<em>分类</em>准确率。 1. AccuracyLayer 的成员: topK : 计算 topK 的准确率。默认为1,即 top1 的准确率。 topK准确率准则下,<em>分类</em>正确的定义如下:在你模型对一个样本进行<em>分类</em>时,对于每一类都有产生一 个概率,取topK 个概率对应的predicted label,如果这topK个 predicted l
基于VGG16预训练网络特征提取在小型训练集上的应用(kaggle - 猫狗分类)(《python深度学习》)
0 前言      在之前的例子中,我们采用一个从头开始训练的卷积神经网络在训练样本数共2000个的kaggle猫狗训练集上训练,哪怕采用了4组Conv2D和MaxPooling组合、随机<em>图片</em>变换、全连接输入层高达50%的dropout以及多达100次的循环最后通过绘图分析发现还是不可避免的较早的出现过拟合,最后在测试集上的正确率仅仅为75%。归根结底是因为样本数太少,即使通过<em>图片</em>的随机变换仍然...
caffe训练二分类问题accuracy=0.5
-
深度学习之语义分割中的度量标准(准确度)(pixel accuracy, mean accuracy, mean IU, frequency weighted IU)
深度学习之语义分割中的度量标准(准确度)(pixel <em>accuracy</em>, mean <em>accuracy</em>, mean IU, frequency weighted IU)下面是根据全卷积语义分割的准确度程序编写import _init_pathsimport os import numpy as np from PIL import Image import matplotlib.pyplot as p
Caffe的可视化训练:绘制loss和accuracy曲线
曾经用<em>caffe</em>自带的提取训练log的脚本以及画图的脚本,发现plot_traning_lo.py老报错。  就改用Spyder直接运行Python 脚本的方式了。 本文参考了 徐其华的blog :http://www.cnblogs.com/denny402/p/5686067.html  ,并修改了相关的错误 1. import import numpy as np, 然后zero
Caffe训练mnist数据遇到的问题(GPU版)
<em>caffe</em>在make所有阶段没有<em>问题</em>,但是在mnist训练出错,Cannot create Cublas handle. Cublas won't be available. 这个错误一句话总结是在运行过程中遇到的权限<em>问题</em>。解决方法有几种: 1、修改无法执行文件的权限,最无脑的方法就是chmod 777,如下图就可以找到benchmark.cpp修改权限。
问题 解决】mxnet训练mnist数据集的Train_accuracy很小
在dl4上运行train_mnist.py正常,Train_accuacy在0.9附近 [hx@dl4 image-classification]$ python train_mnist.py --gpus 0 INFO:root:start with arguments Namespace(batch_size=64, disp_batches=100, gpus='0', kv_store
Caffe学习:绘制loss和accuracy曲线(使用caffe工具包)
Caffe学习:绘制loss和<em>accuracy</em>曲线(使用<em>caffe</em>工具包) 我们在使用<em>caffe</em>训练深度网络的时候,最关心的往往是loss和<em>accuracy</em>的变化情况,一般为了比较直观的观察这两者的变化情况,都会通过绘制曲线的形式来观察,本文主要介绍基于<em>caffe</em>框架训练网络时,如何使用<em>caffe</em>自带的工具包来绘制曲线。这里我使用<em>caffe</em>例子里面的使用adam算法求解训练手写字体的例子。
图像分割-手把手系列1:评价指标
目标检测与语义分割交流群: 1群:371315462 2群:935621769   原文连接:https://blog.csdn.net/majinlei121/article/details/78965435 度量标准(准确度)(pixel <em>accuracy</em>, mean <em>accuracy</em>, mean IU, frequency weighted IU) 原文讲解的非常好,转载过来备份...
有关Caffe训练好的模型在Python接口下使用分类不准确的问题解决
之前使用<em>caffe</em>训练了1k个自己的数据,有3个<em>分类</em>,在consol下面训练加验证的结果是85%左右的准确率,还是可以的. 但是<em>问题</em>是,当使用了Python接口,导入<em>caffe</em>model文件和npy均值文件后,<em>分类</em>结果完全惨不忍睹,全部都偏向第一<em>分类</em>. 经过不懈的google,终于发现了<em>问题</em>所在.
caffe中的Accuracy
Caffe 中的 Accuracy 是precision,即:理解为你预测对的正例数,占预测正例总量的比率今天才偶然发现,<em>caffe</em>在计算Accuracy时,利用的是最后一个全链接层的输出(不带有acitvation function),比如:alexnet的train_val.prototxt、<em>caffe</em>net的train_val.prototxt下图是这两个网络训练配置文件(prototxt文
caffe loss=-nan accuracy=1(某一定值)
训练网络时,总出现loss=-nan和<em>accuracy</em>=1的情况,调整学习率(调小)也不能解决。后来发现,由于直接套用了mnist的网络学习特征的个数没有调整,卷机核个数和其他相关特征参数根据自己的数据调整完成后就好了。
caffe自带的训练好的模型测试图片分类结果,实现啦啦啦
1、<em>caffe</em>model文件下载 可以直接在浏览器里输入地址下载,也可以运行脚本文件下载。下载地址为:http://dl.<em>caffe</em>.berkeleyvision.org/bvlc_reference_<em>caffe</em>net.<em>caffe</em>model 文件名称为:bvlc_reference_<em>caffe</em>net.<em>caffe</em>model,文件大小为230M左右,为了代码的统一,将这个 <em>caffe</em>model文件
分类问题打标签label以及求loss的选择——从accuracy底层实现代码理解
使用<em>caffe</em>做二<em>分类</em><em>问题</em>的时候,对于loss层的选择主要有以下两种常用的方法:1、sigmoid cross entropy 最后一层fc的输出设置为一个结点,输入的label是0或1。2、softmax with loss 最后一层fc的输出设置为两个结点,输入的label依旧是0或者1。 这是由于softmax是用于处理多<em>分类</em><em>问题</em>,需要上一层的输出个数同<em>分类</em>数目相同,而损失层会将labe
caffe accuracy层以及blob的梳理
基础概念blob的reshapereshape接收的是一个vector的参数,目的是要给这个blob分配相应的内存空间。这个vector参数,表示了不同的维度,一般就是N*C*H*W,如[0]表示N,[1]表示C,等。 直观的解析就是:有N张图,每张图有C个channel,每张图的大小是H*W,如果每个像素都是float类型,那么, 计算总共有多少像素(元素)的公式就是:N*C*H*W,就是bl
Caffe图片分类
classification.cpp中main函数的源码为:::int main(int argc, char** argv) { if (argc != 6) { std::cerr << "Usage: " << argv[0] << " deploy.prototxt network.<em>caffe</em>model" << " mean
caffe绘制训练过程中的accuracy、loss曲线
训练模型并保存日志文件        首先建立一个训练数据的脚本文件train.sh,其内容如下,其中,2>&1   | tee examples/mnist/mnist_train_log.log 是log日志文件的保存目录。 #!/usr/bin/env sh set -e TOOLS=./build/tools $TOOLS/<em>caffe</em> train --solv
Source param shape is 4096 9216 (37748736); target param shape is 4096 25088 (102760448).
I1221 15:49:07.614038 28846 net.cpp:228] relu1_1 does not need backward computation. I1221 15:49:07.614042 28846 net.cpp:228] conv1_1 does not need backward computation. I1221 15:49:07.614045 28846
ubuntu14.04+cuda8.0+caffe下使用自己的样本数据训练faster-rcnn
使用自己的数据来训练主要可以分成三步:制作训练样本数据集,修改训练参数,选定方法进行训练。训练faster-rcnn 网络相当于在已训练(一般是在imagenet上训练得到)的网络上进行微调,根据自己设备的不同配置,可以选择不同的网络进行微调。本文为了方便,基于ZF网络进行微调,本文默认已经在ubuntu14.04中配置好gpu版的<em>caffe</em>。
pva-faster-rcnn
出现这种错误主要是train.prototxt  中的文件类别没改过来,可以下载原来的VOC的num_classes进行修改
在ssd-MobileNet模型训练出现的几个问题
训练集:7000张<em>图片</em> 模型:ssd-MobileNet 训练次数:10万步 <em>问题</em>1:10万步之后,loss值一直在2,3,4值跳动 <em>问题</em>2:训练集是拍摄视频5侦截取的,相似度很高,会不会出现过拟合
caffe问题大烦恼——caffe 训练出现 loss = 1.#QNAN
配置文件中学习率base_Ir设置过大,适当减小。
caffe中loss和accuracy等可视化
参考博文:http://blog.csdn.net/u013078356/article/details/511548471.首先在<em>caffe</em>根目录下新建log文件夹,用来存放log文件2.<em>caffe</em>/examples/mnist下的脚本文件原来的内容为#!/usr/bin/env sh set -e ./build/tools/<em>caffe</em> train --solver=examples/mnist
caffe训练自己的图片进行分类预测
搭建好<em>caffe</em>环境后,就需要用自己的<em>图片</em>进行<em>分类</em>预测,主要步骤如下,主要参照http://www.cnblogs.com/denny402/p/5083300.html,感谢博主: 1、数据准备,下载待训练的<em>图片</em>集,共5类400张,测试集100张,目录分别为data\re\train,data\re\val,新建test.txt、val.txt。2、转换数据为lmdb,复制create_imag
caffe和digist来轻松创建高精度的分类网络
机器学习<em>初学者</em>入门实践:怎样轻松创造高精度<em>分类</em>网络 为了实现我们的目标,我们将训练和应用一个卷积神经网络(CNN)。我们将从实践的角度来接近我们的目标,而不是阐释其基本原理。目前人们对人工智能有很大的热情,但其中很多都更像是让物理学教授来教你自行车技巧,而不是让公园里你的朋友来教你。 作者:机器之心|2017-01-06 13:33  收藏   分享
个人中使用caffe做回归中遇到的问题和解决办法
最近在为小论文努力,要做的是一个回归任务,导师推荐使用<em>caffe</em>。于是,为我的电脑装上了<em>caffe</em>,并通过网上的一些人的经验和分享学着使用<em>caffe</em>。在刚刚使用<em>caffe</em>时,遇到了很多困难,毕竟网上的分享都是基于<em>图片</em><em>分类</em>的,回归的还是很少的。为了方便他人和记录自己的成长,就写下这些我遇到的一些困难和为自己的解决方案。在使用<em>caffe</em>时,为遇到的第一个<em>问题</em>就是如何把我的数据转化成<em>caffe</em>构建的网络所
从FocusLoss到hardsample
Focus Loss 何凯明大神在2017年的论文中提出Focus loss 论文 Focus Loss是一种处理深度学习中正负样本不均衡的方法. 它并没有固定形式,应该算是一种思路: 降低non-hard-sample的loss, 提高hard-sample的loss. 以二<em>分类</em>cross entropy loss为例 L(y,y0)=−log(Py)L(y,y0)=−log(Py...
训练过程中常见问题总结
<em>问题</em>1:Loss下降,但<em>accuracy</em>(或auc)不升。 解答:正常,Loss和acc计算方式不同,是两个完全不同的东西。acc只关心预测正确,而不关心正确的程度(比如预测狗和猫,不论模型预测是猫的概率是51%还是99%,对acc来说是一样的)。但是loss函数(如cross_entropy_loss)考虑了预测的正确程度。所以会出现预测正确的数量不变,但是正确的置信度越来越高了。 <em>问题</em>2:Lo...
Caffe中画Accuracy和Loss的曲线
Caffe中需要Accuracy和Loss曲线图,比较直观,下面是Python代码: # coding=UTF-8 import numpy as np import matplotlib.pyplot as plt import sys import os &quot;&quot;&quot; 绘制Loss和Accuracy曲线 &quot;&quot;&quot; <em>caffe</em>_root=&quot;/home/pcb/<em>caffe</em>/&quot; sys.path....
Caffe shape mismatch error using pretrained VGG-16 model
I am using PyCaffe to implement a neural network inspired by the VGG 16 layer network. I want to use the pre-trained model available from their GitHub page. Generally this works by matching layer na
fcn import vgg16 weights error
error FCN novice segmentation David Pickup  7月6日 将帖子翻译为中文   I'm new to Caffe an
caffe在画accuracy曲线图及对某文件夹下多张图片预测分类时的问题解决
我是分2类 我的训练和测试集在http://blog.csdn.net/wd1603926823/article/details/51732849已经转化为leveldb格式   首先,我的Imagenet_solver.prototxt文件: name: "CaffeNet" layer { name: "data" type: "Data" top: "data" top:
AUC用于二分类为啥比accuracy更常用?
很多机器学习的模型对于<em>分类</em><em>问题</em>的预测结果都是概率,如果计算<em>accuracy</em>,需要把概率转换为类别,这就需要手动设置一个阈值。高于该阈值放入A类,低于该阈值放入B类。该阈值很大程度上影响<em>accuracy</em>的计算。AUC可以避免将概率转换成类别。ROC:x轴-FP,y轴-TPAUC的含义:从所有1(0)样本中随机选择一个样本,放入<em>分类</em>器进行预测,预测1--&amp;gt;1的概率为p1,预测0--&amp;gt;1的概...
场景分类总结-caffe
     参加一个场景<em>分类</em>的比赛。数据集:http://ai.futurelab.tv/dataset/view。解压码:QBRE,数据集不可以用作商业用途。这是一个20类的场景<em>分类</em>,用的方法是https://github.com/CSAILVision/places365。利用这里面的方法进行<em>caffe</em>微调。一、制作数据集    参考:<em>caffe</em>学习系列:训练自己的<em>图片</em>集(超详细教程)点击打开链...
caffe问题汇总(持续更新) PS:所有问题均在caffe-windows下产生 1、为什么AlexNet中,InnerProduct_Layer(fc8)层的输出可以直接作为Accuracy
<em>caffe</em>小<em>问题</em>汇总(持续更新) PS:所有<em>问题</em>均在<em>caffe</em>-windows下产生 1、为什么AlexNet中,InnerProduct_Layer(fc8)层的输出可以直接作为Accuracy_Layer层的输出? 答:首先,我们要搞清楚,全连接层的输出是什么。全连接层的操作其实也是卷积操作,只不过要求卷积核的尺寸与输入进来的FeatureMap相同,因此全连接层输出的向量大小为
神经网络(cnn)训练集正确率88%,测试集只有50%,这是为什么
在用cnn给一维数据<em>分类</em>,206个样本分成5类。训练集的正确率可以达到88%,测试集的正确率只有50%左右。。测试集的正确率为什么这么低呢???调参貌似没什么用,不知道有没有哪位大神可以指点一二???
caffe验证集测试集准确率差别很大的可能原因
用<em>caffe</em>自身的训练方法训练的时候,在验证集上准确率达到99%,可是当我用python接口跑测试数据只有50%左右,我起初以为是过拟合,可看了数据发现<em>分类</em>全部偏向一个类别,几乎所有<em>图片</em>,全部分为印刷类。过拟合也不该这样啊。后来发现是我的均值文件有<em>问题</em>,训练时做了归一化,数据在01之间,可是,直接用训练数据计算的均值在0-255之间,训练时会除255,可是自己用python测试的时候,减去的均值要...
caffe做mnist错误识别样本输出的过程记录
参考博客:Caffe可视化MNIST错误识别样本 果然太小白啊,瞎折腾琢磨,出来结果貌似还不对,反正大概流程是搞懂了 1.首先对<em>accuracy</em>_layer函数进行功能添加,打开ysrc/<em>caffe</em>/layers/<em>accuracy</em>_layer.cpp文件,在第88行添加如下代码段: else { // 预测错误 ,此处else为添加的打印错误样本的代码
caffe绘制训练过程的loss和accuracy曲线
在<em>caffe</em>的训练过程中,大家难免想图形化自己的训练数据,以便更好的展示结果。如果自己写代码记录训练过程的数据,那就太麻烦了,<em>caffe</em>中其实已经自带了这样的小工具 <em>caffe</em>-master/tools/extra/parse_log.sh  和 <em>caffe</em>-master/tools/extra/plot_training_log.py.example ,使用方法如下: 1.记录训练日志 在训
利用caffe中自带的工具来可视化loss 和accuracy
以前只是一股脑的训练,却很少注意到这些,今天仔细研究了下,发现<em>caffe</em>自带技能包.方法如下: 1训练,和以前略有不同的是,./XX.sh|& tee xx.log,保证在<em>caffe</em>-master目录下生成日志文件,或者去根目录下的temp中寻找也可以. 2在<em>caffe</em>-master下运行./tools/extra/parse_log.sh fexpress.log, 在当前路径下生
文章热词 tfrecord分类数据集 k近邻数据分类 tensorflow预测分类 双目视觉问题 特征点问题
相关热词 android加载失败图片 android 按日期分类图片 c# 图片dpi修改失败 android分类 区块链初学者 ai人工智能初学者教程
我们是很有底线的