[跪求大佬]我复现了MoblieNetV1,在经过无数次训练后,loss不降反升,准确度向当低,跪求大佬帮助!!! [问题点数:200分,无满意结帖,结帖人Greepex]

Bbs1
本版专家分:0
结帖率 100%
Bbs1
本版专家分:0
Bbs1
本版专家分:0
Bbs1
本版专家分:0
解决Caffe训练过程中loss不变问题
caffe中<em>loss</em>保持87.33和0.69的解决办法
损失函数loss改进解析
题图依然来自Coco!上篇地址:YaqiLYU:人脸识别的LOSS(上)​zhuanlan.zhihu.comFeature NormalizationLiu Y, Li H, Wang X. Rethinking feature discrimination and polymerization for large-scale recognition [C]// NIPS workshop, 2...
windows环境下,利用caffe框架,采用MoblieNet的图像识别
环境:Win<em>1</em>0+python3.5+CUDA8.0+Caffe<em>1</em>+GTX<em>1</em>060 3G首先,环境搭建.默认已装好cuda8.0+cuDNN6.0.caffe的安装参考我上一篇博文.第二,数据准备.准备好trainlmg和testlmg文件.计算均值第三,微调网络结构github上https://github.com/shicai/MobileNet-Caffe下载模型和.protutxt.复制m...
MobileNet v1、v2
<em>1</em>、MobileNet v<em>1</em>(20<em>1</em>7.4 arXiv) (<em>1</em>)网络结构     MobileNet v<em>1</em>的网络结构非常简单,它是一个类似于VGG那样的直通网络,没有跳跃连接。MobileNet v<em>1</em>的主要贡献就是提出用深度可分离卷积代替普通卷积,它的整个网络大部分是基于深度可分离卷积的,只有网络前面几层使用普通卷积,整个网络参数比GoogLeNet小2.5倍,但是准确率比GoogLeNet高...
轻量级网络--MobileNet论文解读
MobileNetV<em>1</em> MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 原文地址:MobileNetV<em>1</em> 代码: TensorFlow官方 github-Tensorflow github-Caffe Abstract MobileNets是为移动和嵌入式设
mobilenet的理解
mobilenet的特点在于inference的速度非常快。拿ssd为例,如果mobilenet作为backbone的速度大概是vgg作为backnobe的3倍,因此它是可以在移动端落地的网络。但是凡事都有两面性,在相同的数据集下,比如今年公开的open image 数据集下,很多类别在<em>1</em>00-200个epoch后,mobilenet的map通常要比vgg<em>低</em>20个点左右。 接下来就详细说一下mob...
轻量化网络:MobileNet-V2
创新点 正文 MobileNet-V2网络结构 MobileNetV2: 《Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation》 于20<em>1</em>8年<em>1</em>月公开在arXiv(美[ˈɑ:rkaɪv]) :https://arxi...
[深度学习] loss不下降的解决方法
链接:https://blog.ailemon.me/20<em>1</em>9/02/26/solution-to-<em>loss</em>-doesnt-drop-in-nn-train/ 当我们<em>训练</em>一个神经网络模型的时候,我们经常会遇到这样的一个头疼的问题,那就是,神经网络模型的<em>loss</em>值不下降,以致我们无法<em>训练</em>,或者无法得到一个效果较好的模型。导致<em>训练</em>时<em>loss</em>不下降的原因有很多,而且,更普遍的来说,<em>loss</em>不下降一...
(转载)[深度学习] loss不下降的解决方法
原文地址https://blog.csdn.net/zongza/article/details/89<em>1</em>85852 当我们<em>训练</em>一个神经网络模型的时候,我们经常会遇到这样的一个头疼的问题,那就是,神经网络模型的<em>loss</em>值不下降,以致我们无法<em>训练</em>,或者无法得到一个效果较好的模型。导致<em>训练</em>时<em>loss</em>不下降的原因有很多,而且,更普遍的来说,<em>loss</em>不下降一般分为三种,即:<em>训练</em>集上<em>loss</em>不下降,验证集...
深度学习训练LOSS不下降原因集合(转载)
https://blog.csdn.net/jacke<em>1</em>2<em>1</em>/article/details/79874555 <em>训练</em>LOSS不下降原因集合
用tensorflow-gpu跑SSD-Mobilenet模型隔一段时间就会出现以下内容
-
[交叉熵损失和accuracy关系] 验证集上val-loss先降再增加,而val-accuracy一直在增加
在上一篇博文([歌词生成] 基于LSTM语言模型和seq2seq序列模型:数据爬取、模型思想、网络搭建、歌词生成)中,seq2seq<em>训练</em>之后,我们发现其在<em>训练</em>集合验证集上<em>loss</em>和accuracy变化如下: 我们首先来回顾一下过拟合的基本表现: <em>训练</em>集<em>loss</em>不断降<em>低</em>,但是测试集的<em>loss</em>开始不断增加。 再来看我们这个情况,看右边2个<em>loss</em>的图,在第<em>1</em>5个epoch之前,<em>训练</em>集上的<em>loss</em>不断...
【深度学习MobileNet】——深刻解读MobileNet网络结构
本文转载自:引言卷积神经网络(CNN)已经普遍应用在计算机视觉领域,并且已经取得了不错的效果。图<em>1</em>为近几年来CNN在ImageNet竞赛的表现,可以看到为了追求分类<em>准确度</em>,模型深度越来越深,模型复杂度也越来越高,如深度残差网络(ResNet)其层数已经多达<em>1</em>52层。 图<em>1</em> CNN在ImageNet上的表现(来源:CVPR20<em>1</em>7) 然而,在某些真实的应用场景如移动或者嵌入式设备,如此大而复杂的模型...
MobileNet详解(V1
MobileNetV<em>1</em>是一种既降<em>低</em>了模型大小,又加快了推理速度的模型。但是不太好<em>训练</em>,实测需要先用较大学习率(0.<em>1</em>~0.0<em>1</em>左右)训(SGD).  先讲为什么MobileNet可以加快推理速度: 上图: 首先,假设上图是原本的VGG结构,输入feature map 有M个channel , Df * Df 是输出 feature map的大小channel数为N ,Dk
【论文学习】轻量级网络——MobileNetV3终于来了(含开源代码)
论文名称:《Searching for MobileNetV3》 感谢github上<em>大佬</em>们开源,开源代码整理如下: (<em>1</em>)PyTorch实现<em>1</em>:https://github.com/xiaolai-sqlai/mobilenetv3 (2)PyTorch实现2:https://github.com/kuan-wang/pytorch-mobilenet-v3 (3)PyTorch实现...
loss训练时候震荡分析
分析原因: <em>1</em>.batch的选择,首先决定的是下降方向,如果数据集比较小,则完全可以采用全数据集的形式。这样做的好处有两点, <em>1</em>)全数据集的方向能够更好的代表样本总体,确定其极值所在。 2)由于不同权重的梯度值差别巨大,因此选取一个全局的学习率很困难。 2.增大batchsize的好处有三点: <em>1</em>)内存的利用率提高了,大矩阵乘法的并行化效率提高。 ...
深度学习卷积神经网络——经典网络GoogLeNet(Inception V3)网络的搭建与实现
一、Inception网络(google公司)——GoogLeNet网络的综述 获得高质量模型最保险的做法就是增加模型的深度(层数)或者是其宽度(层核或者神经元数), 但是这里一般设计思路的情况下会出现如下的缺陷: <em>1</em>.参数太多,若<em>训练</em>数据集有限,容易过拟合; 2.网络越大计算复杂度越大,难以应用; 3.网络越深,梯度越往后穿越容易消失,难以优化模型。  解决上述两个缺点的根本
GoogLeNet(Inception V1)总结
本文是对 “Going Deeper With Convolution” 的论文创新点的解读和总结,笔者在去年对该论文进行了全文翻译,原文翻译可点传送门:《Going Deeper With Convolution》全文译解,但当时仅限于翻译,并未对其中细节和创新点进行详细剖析。经典的东西需要细细品味,本文主要解读该论文的新点,也即 GoogLeNet 的网络结构。 该论文发表于 CVPR 20<em>1</em>...
对于loss持续不降,DEBUG
神经网络具有两大能力:一、学习能力,指在<em>训练</em>集上精度。二、泛化能力,指在测试集上精度。对于一个大型神经网络在一个大数据集上跑,LOSS持续不降,第一步先减小数据量,比方说只在单张图片上跑,使用小epochsize,观察每次LOSS下降情况,此时如果LOSS还是不下降说明网络没有学习能力,应该调整模型,一般是先把网络规模缩小,因为任何一个网络都会有学习能力,然而此时你的网络没有学习能力,则一定是你的...
使用tensorflow训练tfrecord文件的时候,loss开始下降后来上升的原因
以下内容是本人在<em>训练</em>时候所遇到,并且解决的,如果还有没有涉及到的,希望可以交流: <em>1</em>.刚开始下降,后来上升,可能是数据集的问题,假如数据集<em>训练</em>集的总大小是5000张图片,如果你写为6000或者只要不是5000张的,都可能会出现开始下降后来上升的问题。如果解决该问题的方法是,修改数据集的总大小等于你<em>训练</em>数据集的总大小。 2 可能是模型的问题:如何判断是模型的问题,首先你使用未修改(此处指的是比如re...
train loss与test loss结果分析
train <em>loss</em> 不断下降,test <em>loss</em>不断下降,说明网络仍在学习; train <em>loss</em> 不断下降,test <em>loss</em>趋于不变,说明网络过拟合; train <em>loss</em> 趋于不变,test <em>loss</em>不断下降,说明数据集<em>1</em>00%有问题; train <em>loss</em> 趋于不变,test <em>loss</em>趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目; train <em>loss</em> 不断上升,test
2分类val_loss变化巨大的原因?
-
【Keras情感分类】训练过程中出现的问题汇总
Q:<em>训练</em>过程中<em>loss</em>数值为负数? 【原因】输入的<em>训练</em>数据没有归一化造成 【解决方法】把输入数值通过下面的函数过滤一遍,进行归一化 #数据归一化 def data_in_one(inputdata): inputdata = (inputdata-inputdata.min())/(inputdata.max()-inputdata.min()) return inputda
180304 keras中图像化查看模型训练过程中的acc+loss+val_acc+val_loss
- 第一步 # define the function def training_vis(hist): <em>loss</em> = hist.history['<em>loss</em>'] val_<em>loss</em> = hist.history['val_<em>loss</em>'] acc = hist.history['acc'] val_acc = hist.history['val_acc'] ...
对keras训练过程中loss,val_loss,以及accuracy,val_accuracy的可视化
hist = model.fit_generator(generator=data_generator_reg(X=x_train, Y=[y_train_a,y_train_g], batch_size=batch_size), steps_per_epoch=train_num // batch_size, ...
目标检测问题中的-loss,val_loss
概念 最近在用研究keras-yolov3,遇到了<em>loss</em>,val_<em>loss</em>这两个基本的概念,在这捋一捋这两位的到底有啥作用。 <em>loss</em>:<em>训练</em>集上<em>loss</em>,就是总的<em>loss</em>; val_<em>loss</em>:测试集中的<em>loss</em>; 过拟合 (<em>1</em>)<em>loss</em>一直下降,收敛,而val_<em>loss</em>却上升,不收敛,说明过拟合了。<em>loss</em>下降、收敛,说明模型在<em>训练</em>集上,表现良好,但是却在验证集、测试集上没有良好的表现...
验证集精确度和损失同时上升
目录实验结果分析 实验结果 下图中val_acc,val_<em>loss</em>分别表示验证集精确度和损失;train_acc,train_<em>loss</em>分别表示<em>训练</em>集精确度和损失。 验证集精确度一直上升,但是损失在第六个epoch后也开始上升,如何解释? 分析 在N标签分类任务中,输出是一个N维的向量,向量中每个位置代表某类标签,其值代表属于此类标签的概率值。我们取概率最大值的索引所对应的标签作为最终预测标签,所...
【深度学习】网络训练时train/val loss出现周期性剧增原因
今天在<em>训练</em>自己定义的网络时,用Tensorboard观察Train/Val 的<em>loss</em>在<em>训练</em>时的变化,发现了下面<em>loss</em>会周期性剧增的情况: 通过观察<em>loss</em>具体的数值变化,我发现每次<em>loss</em>剧增都发生在一个epoch的最后一轮。 通过分析,我判断出这是由于我的图片数量不能被batch size整除导致的。 我的train/val分别有2450,6<em>1</em>0张图片,batch size为32,这使得...
回归问题,训练损失不断增大,测试损失不断减小
-
ShuffleNet MobileNet 在caffe训练加速方法
ShuffleNet参考:https://github.com/farmingyard/ShuffleNe<em>1</em>. <em>1</em>.将cpp 和cu文件复制到caffe/src/caffe/layers目录下,将hpp文件复制到caffe/include/caffe/layers/目录下, 2.修改在caffe/src/caffe/proto目录下的caffe.proto文件 message LayerPa...
神经网络训练loss不下降原因集合
train <em>loss</em>与test <em>loss</em>结果分析 train <em>loss</em> 不断下降,test <em>loss</em>不断下降,说明网络仍在学习; train <em>loss</em> 不断下降,test <em>loss</em>趋于不变,说明网络过拟合; train <em>loss</em> 趋于不变,test <em>loss</em>不断下降,说明数据集<em>1</em>00%有问题; train <em>loss</em> 趋于不变,test <em>loss</em>趋于不变,说明学习遇到瓶颈,需要减小学习率或批...
在ssd-MobileNet模型训练出现的几个问题
<em>训练</em>集:7000张图片 模型:ssd-MobileNet <em>训练</em>次数:<em>1</em>0万步 问题<em>1</em>:<em>1</em>0万步之后,<em>loss</em>值一直在2,3,4值跳动 问题2:<em>训练</em>集是拍摄视频5侦截取的,相似度很高,会不会出现过拟合
深度学习loss下降,精度不提高,怎么解?
-
loss曲线震荡分析
计算机视觉交流群:677855967,欢迎大家加入交流。 Loss曲线震荡: 分析原因: <em>1</em>:<em>训练</em>的batch_size太小 <em>1</em>. 当数据量足够大的时候可以适当的减小batch_size,由于数据量太大,内存不够。但盲目减少会导致无法收敛,batch_size=<em>1</em>时为在线学习。 2. batch的选择,首先决定的是下降方向,如果数据集比较小,则完全可以采用全数据集的形...
修改的SSD—Tensorflow 版本在训练的时候遇到loss输入维度不一致
-
MobileNets—深度学习模型的加速
本篇博文来介绍一个深度学习模型加速的算法:MobileNets,可以在基本不影响准确率的前提下大大减少计算时间和参数数量。论文:MobileNets Efficient Convolutional Neural Networks for Mobile Vision Applications 论文链接:https://arxiv.org/abs/<em>1</em>704.0486<em>1</em>算法概述:深度学习网络广泛应用在图
训练集、测试集loss容易出现的问题总结
                   <em>训练</em>集、测试集<em>loss</em>容易出现的问题总结 train <em>loss</em> 不断下降,test <em>loss</em>不断下降:说明网络仍在学习; train <em>loss</em> 不断下降,test <em>loss</em>趋于不变:说明网络过拟合; train <em>loss</em> 趋于不变,test <em>loss</em>不断下降:说明数据集<em>1</em>00%有问题; train <em>loss</em> 趋于不变,test <em>loss</em>趋于不变:说明学...
loss收敛过小或finetune时跑飞情况分析
   最近在跑REDNet去噪网络,基于pytorch框架,输入输出图像被归一化到了0-<em>1</em>之间,<em>loss</em>使用的是L2 <em>loss</em>,理论最终收敛值为33左右。结果在之前<em>训练</em>好模型的基础上finetune,出现了这种情况:    当使用L<em>1</em>或者输入为0-255时,并没有出现这种情况。这里使用L2 <em>loss</em>,输入0-<em>1</em>之间,<em>loss</em>先下降,再上升,这是很反常的,一般来说有以下问题导致...
mobileNet-一个典型的网络加速的例子
论文链接:https://arxiv.org/abs/<em>1</em>704.0486<em>1</em> MXNet框架代码:https://github.com/miraclewkf/mobilenet-MXNet moblileNet,顾名思义,可以在移动端使用的网络,那必然要求网络的计算量要小一些,不然移动端可扛不住啊,那MobileNet如何做到这个的呢??总结来看,其主要创新点就在于论文中反复强调的depth-...
用自制数据训练修改过的基于caffe的fcn网络时loss在一个较大值震荡的解决方法
基于caffe的fcn网络<em>训练</em>自制数据时<em>loss</em>在一个较大值震荡的解决方法 用自己数据<em>训练</em>修改后的fcn网络,可能会遇到<em>loss</em>在一个较大值附近震荡。通过查询资料和借助网络资源,初步有两个比较好的方法来处理这个问题;<em>训练</em>网络时初始化权重对<em>训练</em>的影响比较大。做过这样的测试,<em>训练</em>网络数据利用默认初始化方式,<em>loss</em>降到一个较大值附近就不下降了。通过已有网络赋值,或者其他初始化权重方式可以获得不错
急急急!使用keras训练BiLSTM时,经过几个epoch后,loss增大,acc降是什么原因?
-
一段数据中找到类似W型的,先下降后上升再下降再上升数据?
-
请问tensorflow的训练loss一直在1.几和0.几之间跳来跳去是算没收敛还是收敛了?
-
利用自己的数据重训ssd-mobileNetV1并在NCNN上部署
        随着深度学习的发展,目标检测算法已逐渐趋于成熟。目前基于深度学习的目标检测算法可以被分为两个大方向,一方面是以fast-RCNN为代表的含有Region Proposal Stage的模型,例如faster-RCNN和R-FCN;另一方面是以SSD为代表的Single Stage模型,例如SSD, yolo等。尽管Region Proposal已经逐步地被优化并且加入到了深度网络中...
训练网络出现loss突然上升或者直接NaN......
粗略写一下: 解决方式,把初始化方式换掉。。。我们之前用的切断正态分布,,现在考虑下: http://blog.csdn.net/shuzfan/article/details/5<em>1</em>338<em>1</em>78 经验说: <em>1</em>.一般我们都会用优秀的modelzoo参数初始化我们的参数,可能是这个参数值过大的问题。 2.不恰当的<em>loss</em>函数。 待续......
pytorch训练神经网络loss刚开始下降后来停止下降的原因
问题提出:用pytorch<em>训练</em>VGG<em>1</em>6分类,<em>loss</em>从0.69下降到0.24就开始小幅度震荡,不管如何调整batch_size和learning_rate都无法解决。 原因:没有加载预<em>训练</em>模型 那么问题来了,官方给出的是<em>1</em>000类的ImageNet预<em>训练</em>模型    https://download.pytorch.org/models/vgg<em>1</em>6-397923af.pth,而我要做的是20类...
ssd的loss函数讲解
更多讨论请加群:703346870 multibox_<em>loss</em>_layer.cpp #include &lt;algorithm&gt; #include &lt;map&gt; #include &lt;utility&gt; #include &lt;vector&gt; #include "caffe/layers/multibox_<em>loss</em>_layer.hpp" #include ...
Loss和神经网络训练
出处:http://blog.csdn.net/han_xiaoyang/article/details/5052<em>1</em>064  声明:版权所有,转载请联系作者并注明出处 <em>1</em>.<em>训练</em> 在前一节当中我们讨论了神经网络静态的部分:包括神经网络结构、神经元类型、数据部分、损失函数部分等。这个部分我们集中讲讲动态的部分,主要是<em>训练</em>的事情,集中在实际工程实践<em>训练</em>过程中要注意的一些点,如何找到最合适的
caffe中的loss值,训练loss比测试loss更大,为什么?
在caffe中,<em>训练</em>的时候,默认会打印出测试的<em>loss</em>值和<em>训练</em>的<em>loss</em>值,比如下图第一个<em>loss</em>值0.3806<em>1</em>2是指模型在测试阶段,但是在<em>训练</em>集上的<em>loss</em>值,第二个<em>loss</em>值0.4<em>1</em>6<em>1</em>7<em>1</em>是指模型在测试阶段,在测试集上的<em>loss</em>值第三个<em>loss</em>值是<em>训练</em>阶段打印出的<em>loss</em>值但是这里比较奇怪的是为什么<em>训练</em>阶段的<em>loss</em>最大?而且为什么这个<em>loss</em>值和测试阶段在测试集上的<em>loss</em>值不一样大?初...
深度网络的过拟合问题讨论
最近做深度学习实验的时候遇到了一个很棘手的问题,那就是大名鼎鼎的“过拟合”,本博客主要是围绕这个问题展开的。
caffe训练网络时loss突然增大并维持在86.3333333的问题解决
<em>loss</em>一直维持在83.33333
使用caffe训练时Loss变为nan的原因
梯度爆炸 原因:梯度变得非常大,使得学习过程难以继续 现象:观察log,注意每一轮迭代后的<em>loss</em>。<em>loss</em>随着每轮迭代越来越大,最终超过了浮点型表示的范围,就变成了NaN。 措施:  <em>1</em>. 减小solver.prototxt中的base_lr,至少减小一个数量级。如果有多个<em>loss</em> layer,需要找出哪个损失层导致了梯度爆炸,并在train_val.prototxt中减小该
caffe小问题大烦恼——caffe 训练出现 loss = 1.#QNAN
配置文件中学习率base_Ir设置过大,适当减小。
Caffe训练时Loss不下降问题
文章作者:Tyan 博客:noahsnail.com &amp;nbsp;|&amp;nbsp; CSDN &amp;nbsp;|&amp;nbsp; 简书 <em>1</em>. 问题描述 今天使用Caffe进行分类模型<em>训练</em>时,迭代到一定次数后<em>loss</em>突然增大到某个固定值,然后保持不变。日志如下: I0705 <em>1</em>4:57:<em>1</em>4.980687 320 solver.cpp:2<em>1</em>8] Iteration 44 (2.60643 ...
图像语义分割 — 利用Deeplab v3+训练自己的数据 loss震荡解决办法
问题描述:     在利用DeeplabV3+ <em>训练</em>自己数据集时,<em>loss</em>一直在0.4附近震荡,测试集MIOU值在0.55附近(结果较差),折腾许久,终于有所提高,最近计算结果:测试集 MIOU &amp;gt; 0.8,且过拟合现象不明显。 参考链接: <em>1</em>. https://blog.csdn.net/u0<em>1</em><em>1</em>974639/article/details/80948990; 2. https:/...
使用mobilenet训练自己的数据
使用mobilenet<em>训练</em>自己的数据实现背景:keras+ tensorflow一、数据预处理文件:car2626data.py#coding:utf-8 import os import numpy as np import cv2 import pdb def load_data(): x_train = np.empty((263<em>1</em>7<em>1</em>,3,224,224),dty
深度学习方法(十四):轻量级CNN网络设计——MobileNet,ShuffleNet,文末有思考
本系列前面介绍了非常多卷积网络结构设计,事实上,在inception和resnet网络提出并相对完善以后,网络结构的设计就不再爆发式出现了,这两大类网路涵盖了大部分应用的卷积网络结构。 在本文中,我们来一起看一些最近一年研究较多的轻量级卷积网络结构,这些网络主要的设计目标是——在保证一定的识别精度情况下,尽可能减少网络规模(参数量、计算量)。最直接的设计目标就是用于手机等移动终端中(CPU),让
CNN网络优化学习总结——从MobileNet到ShuffleNet
CNN网络优化学习总结——从MobileNet到ShuffleNet 摘要 最近出了一篇旷视科技的孙剑团队出了一篇关于利用Channel Shuffle实现的卷积网络优化——ShuffleNet。我关注了一下,原理相当简单。它只是为了解决分组卷积时,不同feature maps分组之间的channels信息交互问题,而提出Channel Shuffle操作为不同分组提供channels信息...
MobileNet在手机端上的速度评测:iPhone 8 Plus竟不如iPhone 7 Plus
如今,正在兴起一项有关手机应用和深度学习的新动向。 20<em>1</em>7 年 4 月:谷歌发布 MobileNets,一个可在计算资源有限的环境中使用的轻量级神经网络。 20<em>1</em>7 年 6 月:苹果推出 Core ML,允许机器学习模型在移动设备上运行。
MobileNetv2优化问题
LinearBottleneck 优化时,把卷积层2去掉时,执行速度<em>1</em>.2s,加上卷积层2时,执行速度是0.2s, 加卷积后; torch.Size([<em>1</em>, 960, 7, 7]) 去掉卷积层2后;shape torch.Size([<em>1</em>, 960, <em>1</em><em>1</em>2, <em>1</em><em>1</em>2]) 导致了速度变慢。 class LinearBottleneck(nn.Module): def __in...
使用mobilenet_v1---使用SSD-MobileNet训练模型
使用mobilenet_v<em>1</em><em>训练</em>mobilenet 主要参考了[<em>1</em>],还是很详细的,跟着教程来可以很容易跑起来,有几个问题需要注意 ★执行命令路径举例 cd /host/models/research/ protoc object_detection/protos/*.proto --python_out=. export PYTHONPATH="${PYTHONPATH}:/host/model...
mobilenet_v1训练mnist
一般用lenet<em>训练</em>mnist,但是现在也可以使用mobilenet_v<em>1</em>来<em>训练</em>,创建mobilenet_v<em>1</em>_mnist_train.py,写下如下代码并放到/host/models/research/slim/nets中,写下如下代码。 #coding: utf-8 import os import tensorflow as tf from tensorflow.examples.tut...
shufflenetv1 ,shufflenetv2,mobilenetv1,mobilenetv2
首先,就目前而言,shufflenetv2的效果是最好的 这个四个网络都是对depthwiseconv网络的运用,深度可分离卷积相对于传统卷积的优点在于其计算量由巨大幅度的降<em>低</em>。 但是现今的深度学习框架对于深度可分离卷积的支持还是有好有坏的,有些框架,比如:darknet中就没有深度可分离卷积的实现,GitHub上有人分享了其实现方法,对于速度的提升确实很明显,但有很大的优化空间。 ...
SSD训练自己数据遇到的问题
<em>1</em>在windows上面<em>训练</em>和测试ssd的方法很少,而且配置也相当之麻烦,搞了几天才调试成功。现在写一下过程分享到博客上,顺便也可以作为今后再次安装的参考。我的配置环境: windows: <em>1</em>0  gpu: Titan X  cuda: 8.0  caffe: caffe-ssd-microsoft  python: 2.7.<em>1</em>3 Caffe-SSD的编译与配置 编译这
目标检测:SSD的multibox_loss_layer和MineHardExamples的理解
SSD(single-shot multibox detector)源码学习笔记SSD是Wei Liu等人去年提出来的一个object detection框架,在PascalVOC上mAP可以超过著名的Faster RCNN,同时速度可以做到实时,简直强无敌。之前用别人的MXNet代码跑过实验,最近需要改进一下算法,所以去翻了一下原作者用Caffe实现的代码。在看代码之前先简述一下SSD的做法:图...
程序员实用工具网站
目录 <em>1</em>、搜索引擎 2、PPT 3、图片操作 4、文件共享 5、应届生招聘 6、程序员面试题库 7、办公、开发软件 8、高清图片、视频素材网站 9、项目开源 <em>1</em>0、在线工具宝典大全 程序员开发需要具备良好的信息检索能力,为了备忘(收藏夹真是满了),将开发过程中常用的网站进行整理。 <em>1</em>、搜索引擎 <em>1</em>.<em>1</em>、秘迹搜索 一款无敌有良心、无敌安全的搜索引擎,不会收集私人信息,保...
我花了一夜用数据结构给女朋友写个H5走迷宫游戏
起因 又到深夜了,我按照以往在csdn和公众号写着数据结构!这占用了我大量的时间!我的超越妹妹严重缺乏陪伴而 怨气满满! 而女朋友时常埋怨,认为数据结构这么抽象难懂的东西没啥作用,常会问道:天天写这玩意,有啥作用。而我答道:能干事情多了,比如写个迷宫小游戏啥的! 当我码完字准备睡觉时:写不好别睡觉! 分析 如果用数据结构与算法造出东西来呢? ...
别再翻了,面试二叉树看这 11 个就够了~
写在前边 数据结构与算法: 不知道你有没有这种困惑,虽然刷了很多算法题,当我去面试的时候,面试官让你手写一个算法,可能你对此算法很熟悉,知道实现思路,但是总是不知道该在什么地方写,而且很多边界条件想不全面,一紧张,代码写的乱七八糟。如果遇到没有做过的算法题,思路也不知道从何寻找。面试吃了亏之后,我就慢慢的做出总结,开始分类的把数据结构所有的题型和解题思路每周刷题做出的系统性总结写在了 Github...
让程序员崩溃的瞬间(非程序员勿入)
今天给大家带来点快乐,程序员才能看懂。 来源:https://zhuanlan.zhihu.com/p/4706652<em>1</em> <em>1</em>. 公司实习生找 Bug 2.在调试时,将断点设置在错误的位置 3.当我有一个很棒的调试想法时 4.偶然间看到自己多年前写的代码 5.当我第一次启动我的单元测试时 ...
接私活必备的 10 个开源项目!
点击蓝色“GitHubDaily”关注我加个“星标”,每天下午 <em>1</em>8:35,带你逛 GitHub!作者 | SevDot来源 | http://<em>1</em>t.click/VE8W...
GitHub开源的10个超棒后台管理面板
目录 <em>1</em>、AdminLTE 2、vue-Element-Admin 3、tabler 4、Gentelella 5、ng2-admin 6、ant-design-pro 7、blur-admin 8、iview-admin 9、material-dashboard <em>1</em>0、layui 项目开发中后台管理平台必不可少,但是从零搭建一套多样化后台管理并不容易,目前有许多开源、免费、...
Git 天天用 但是 Git 原理你了解吗?
Git 原理 做技术一定要知其然知其所以然,意思就是:知道它是这样的,更知道它为什么是这样的。我主要通过4块内容来简单介绍 Git 是原理是什么样的。这4块内容如下: Git 存储目录结构介绍 Git 是如何存储的 Git 的对象 Git引用 当然 Git 原理不仅仅包含这些,想要更深入了解请查看官方教程 https://git-scm.com/book/zh/v2/。 本文内容是我在 Git...
100 个网络基础知识普及,看完成半个网络高手
欢迎添加华为云小助手微信(微信号:HWCloud002或HWCloud003),输入关键字“加群”,加入华为云线上技术讨论群;输入关键字“最新活动”,获取华为云最新特惠促销。华为云诸多技术大咖、特惠活动等你来撩! <em>1</em>)什么是链接? 链接是指两个设备之间的连接。它包括用于一个设备能够与另一个设备通信的电缆类型和协议。 2)OSI 参考模型的层次是什么? 有 7 个 OSI 层:物理...
漫画:什么是摩尔斯电码?
摩尔斯电码是什么摩尔斯电码(Morse code),是<em>1</em>837年由美国人发明,本质上是一种对信息的编码,最初用于人们的远程通信。那个时候,人们连电话都还没发明出来,更不用...
中国最顶级的一批程序员,从首富到首负!
过去的20年是程序员快意恩仇的江湖时代通过代码,实现梦想和财富有人痴迷于技术,做出一夜成名的产品有人将技术变现,创办企业成功上市这些早一代的程序员们创造的奇迹引发了一浪高...
为什么面向对象糟透了?
又是周末,编程语言“三巨头”Java, Lisp 和C语言在Hello World咖啡馆聚会。服务员送来咖啡的同时还带来了一张今天的报纸, 三人寒暄了几句, C语言翻开了...
分享靠写代码赚钱的一些门路
作者 mezod,译者 josephchang<em>1</em>0如今,通过自己的代码去赚钱变得越来越简单,不过对很多人来说依然还是很难,因为他们不知道有哪些门路。今天给大家分享一个精彩...
对计算机专业来说学历真的重要吗?
我本科学校是渣渣二本,研究生学校是985,现在毕业五年,校招笔试、面试,社招面试参加了两年了,就我个人的经历来说下这个问题。 这篇文章很长,但绝对是精华,相信我,读完以后,你会知道学历不好的解决方案,记得帮我点赞哦。 先说结论,无论赞不赞同,它本质就是这样:对于技术类工作而言,学历五年以内非常重要,但有办法弥补。五年以后,不重要。 目录: 张雪峰讲述的事实 我看到的事实 为什么会这样 ...
在线就能用的Linux我给你找好了
来源:公众号【编程珠玑】 作者:守望先生 网站:https://www.yanbinghu.com 前言 是不是不想装虚拟机,还想体验一下Linux?是不是自己的电脑不在,又想搞事情?今天给大家推荐几个在线就可以玩的Linux环境以及学习Shell的地方。 在线Linux环境 如果你不想安装虚拟机,这里提供几个在线就能把玩Linux的网站,他们不需要注册用户,可以直接使用。 Unix...
世界上最好的学习法:费曼学习法
你是否曾幻想读一遍书就记住所有的内容?是否想学习完一项技能就马上达到巅峰水平?除非你是天才,不然这是不可能的。对于大多数的普通人来说,可以通过笨办法(死记硬背)来达到学习的目的,但效率<em>低</em>下。当然,也可以通过优秀的学习法来进行学习,比如今天讲的“费曼学习法”,可以将你的学习效率极大的提高。 费曼学习法是由加拿大物理学家费曼所发明的一种高效的学习方法,费曼本身是一个天才,<em>1</em>3岁自学微积分,24岁加入曼...
学Linux到底学什么
来源:公众号【编程珠玑】 作者:守望先生 网站:https://www.yanbinghu.com/20<em>1</em>9/09/25/<em>1</em>4472.html 前言 ​我们常常听到很多人说要学学Linux或者被人告知说应该学学Linux,那么学Linux到底要学什么? 为什么要学Linux 在回答学什么之前,我们先看看为什么要学。首先我们需要认识到的是,很多服务器使用的是Linux系统,而作为服务器应...
深入理解C语言指针
一、指针的概念 要知道指针的概念,要先了解变量在内存中如何存储的。在存储时,内存被分为一块一块的。每一块都有一个特有的编号。而这个编号可以暂时理解为指针,就像酒店的门牌号一样。 <em>1</em>.<em>1</em>、变量和地址 先写一段简单的代码: void main(){ int x = <em>1</em>0, int y = 20; } 这段代码非常简单,就是两个变量的声明,分别赋值了 <em>1</em>0、20。我们把内存当做一个酒店,而每个房间就...
C语言实现推箱子游戏
很早就想过做点小游戏了,但是一直没有机会动手。今天闲来无事,动起手来。过程还是蛮顺利的,代码也不是非常难。今天给大家分享一下~ 一、介绍 开发语言:C语言 开发工具:Dev-C++ 5.<em>1</em><em>1</em> 日期:20<em>1</em>9年9月28日 作者:ZackSock 也不说太多多余的话了,先看一下效果图: 游戏中的人物、箱子、墙壁、球都是字符构成的。通过wasd键移动,规则的话就是推箱子的规则,也就不多说了。 二、代...
面试官:兄弟,说说基本类型和包装类型的区别吧
Java 的每个基本类型都对应了一个包装类型,比如说 int 的包装类型为 Integer,double 的包装类型为 Double。基本类型和包装类型的区别主要有以下 4 点。
焦虑的互联网人及35岁定律
一、35岁定律 好像现在整个互联网行业都在贩卖焦虑,从之前的30岁淘汰,到现在的35岁,到最新的39.9岁,你会发现,年龄趋势怎么在上升啊,对了兄弟,就是那一批人嘛,他们每年涨一岁,可不就是焦虑年龄越来越大了。 最早我看到的新闻是说,第一批互联网人都赶上了好时候,现在差不多五十岁左右,要么创业成功,要么在大公司做股东,反正都是实现了经济自由的一波人,包括马老师,都是那一拨。 那剩下的呢?有人...
8000字干货:那些很厉害的人是怎么构建知识体系的
本文约8000字,正常阅读需要<em>1</em>5~20分钟。读完本文可以获得如下收益: 分辨知识和知识体系的差别 理解如何用八大问发现知识的连接点; 掌握致用类知识体系的构建方法; 能够应用甜蜜区模型找到特定领域来构建知识体系。 <em>1</em>. 知识体系?有必要吗? 小张准备通过跑步锻炼身体,可因为之前听说过小腿变粗、膝盖受伤、猝死等等与跑步有关的意外状况,有点担心自己会掉进各种坑里,就在微信上问朋友圈一直晒跑步...
Android完整知识体系路线(菜鸟-资深-大牛必进之路)
前言 移动研发火热不停,越来越多人开始学习Android 开发。但很多人感觉入门容易成长很难,对未来比较迷茫,不知道自己技能该怎么提升,到达下一阶段需要补充哪些内容。市面上也多是谈论知识图谱,缺少体系和成长节奏感,特此编写一份 Android 研发进阶之路,希望能对大家有所<em>帮助</em>。 由于篇幅过长,有些问题的答案并未放在文章当中,不过我都整理成了一个文档归纳好了,请阅读到文末领取~ Ja...
网易云音乐你喜欢吗?你自己也可以做一个
【公众号回复 “<em>1</em>024”,免费领取程序员赚钱实操经验】今天我章鱼猫给大家带来的这个开源项目,估计很多喜欢听音乐的朋友都会喜欢。就目前来讲,很多人对这款音乐 App 都抱...
快到假期了,还抢不到票?可以试试这两个工具
哈喽,还有二天就到假期了,相信很多人都坐不住了。这 7 天的假期想回家看看父母,有些人想出外游玩。不管是那样,都躲不开买票。而根据以往经验,7 天这种假期的票都是异常的难买的。 那买不到就只能抢了,以前抢票是手动抢,天天保证手机熬到凌晨两三点,眼睛还不敢眨一下,生怕有票错过了时机,想想都难受(作为回家不用抢票的广东人,深表同情)。 但是自打去年开始,<em>1</em>2306 官方...
C语言这么厉害,它自身又是用什么语言写的?
这是来自我的星球的一个提问:“C语言本身用什么语言写的?”换个角度来问,其实是:C语言在运行之前,得编译才行,那C语言的编译器从哪里来? 用什么语言来写的?如果是用C语...
Java版的7种单例模式
前言 Java 中的单例模式是我们一直且经常使用的设计模式之一,大家都很熟悉,所以这篇文章仅仅做我自己记忆。 Java版七种单例模式写法 一:懒汉,线程不安全 这种写法lazy loading很明显,但是致命的是在多线程不能正常工作。 public class Singleton{ private static Singleton instance; private Singl...
为什么我不建议你在当前购买 5G 手机
首发于公众号:BaronTalk,欢迎关注 每年的八九月份都是各大厂商发布年自己旗舰机的时候,最近 vivo、oppo、小米、华为、苹果接连发布了自己的年度旗舰,这当中除了苹果,其它厂商均发布了 5G 版本手机。恰逢国庆,势必会迎来一波换机潮,而各大厂商发布的 5G 手机很可能会成为很多同学的首选,今天我要来给准备购买 5G 手机的同学泼泼冷水。 先抛出观点:**对于普通消费者,当前不适合购...
认真推荐几个不错的技术公众号
十一假期,好好休息休息今天给大家推荐几个不同技术领域的公众号,涉及服务端后台、前端、Python、职场等各领域。这些号的无论从文章质量,还是从留言互动上,都是值得大家关注...
Python 愤怒的小鸟代码实现(1):物理引擎pymunk使用
python 愤怒的小鸟代码实现(<em>1</em>):物理引擎pymunk使用游戏介绍 游戏介绍 最近比较忙,国庆正好有时间写了python版本的愤怒的小鸟,使用了物理引擎pymunk,代码参考了 github上的,实现了一个可玩的简单版本。 功能实现如下: ...
OSGi实战(文档+源代码)下载
OSGi实战,由淘宝架构部架构师林昊所写一个OpenDoc,很好的OSGi学习的入门资料,是他的两个OpenDoc的第一个,另一个为《OSGi进阶》。 相关下载链接:[url=//download.csdn.net/download/obullxl/1933359?utm_source=bbsseo]//download.csdn.net/download/obullxl/1933359?utm_source=bbsseo[/url]
Windows 平台下 Ylmf OS 快速安装器下载
Windows 平台下 Ylmf OS 快速安装器 相关下载链接:[url=//download.csdn.net/download/jiushinbnbnb/3387288?utm_source=bbsseo]//download.csdn.net/download/jiushinbnbnb/3387288?utm_source=bbsseo[/url]
模拟电子技术基础课后答案下载
答案详细,解题清晰,可以用来自学的资料,绝对好用 相关下载链接:[url=//download.csdn.net/download/u012398265/6379459?utm_source=bbsseo]//download.csdn.net/download/u012398265/6379459?utm_source=bbsseo[/url]
相关热词 c# 应用r包 c# excel格式刷 c# 监控word保存 c#中字符串排序 c# 打印方向 c# 获取根目录 c#语言文档 c#设置开机自启动 c# cpu id 主板 c# timer越来越卡
我们是很有底线的