求助。。。。tensoflow的问题。mobilenet没法收敛,不是学习率的问题 [问题点数:100分]

Bbs1
本版专家分:0
结帖率 0%
人工神经网络——学习率与收敛速度
from matplotlib import pyplot as plt from mpl_toolkits.mplot3d import Axes3D import numpy as np from sklearn.neural_network import MLPClassifier from sklearn.datasets import load_iris 生成线性可分数据集 def ...
TensoFlow解决过拟合问题:正则化、滑动平均模型、衰减率
对多层神经网络的总结激活函数  神经网络解决非线性<em>问题</em>的方法是使用激活函数,TensorFlow中常用的激活函数有:tf.nn.relu、tf.sigmoid、tf.tanh。   使用激活函数的前向传播算法:a = tf.nn.relu(tf.matmul(x, w1) + biases1。    反向传播算法    反向传播算法是训练神经网络的核心算法。它可以根据定义好的损失函数优化神经网
高分求助不是问题问题!!
怎样制作网络广播盘??请尽快帮忙……
学习率调参问题
本问主要将两种<em>学习</em>率的调参方法:<em>学习</em>率衰减和<em>学习</em>率对数均匀取值。 1. <em>学习</em>率衰减<em>问题</em> 2. <em>学习</em>率对数均匀取值<em>问题</em>
caffe 学习率设置问题
solver算是caffe的核心的核心,它协调着整个模型的运作。caffe程序运行必带的一个参数就是solver配置文件。运行代码一般为:# caffe train --solver=*_slover.prototxt在Deep Learning中,往往loss function是非凸的,没有解析解,我们需要通过优化方法来求解。solver的主要作用就是交替调用前向(forward)算法和后向(b...
ANSYS计算的收敛问题
ANSYS计算的<em>收敛</em><em>问题</em>
深度学习收敛问题
原答案地址:https://www.zhihu.com/question/33505655 不过答案目前已经被删除了,所以没有图… 本文文字摘自:https://blog.csdn.net/xlbryant/article/details/48470987 1.数据库太小一般不会带来不<em>收敛</em>的<em>问题</em>,只要你一直在train总会<em>收敛</em>(rp<em>问题</em>跑飞了不算)。反而不<em>收敛</em>一般是由于样本的信息量太大...
遗传算法优化的收敛问题
如题,应用遗传算法C编程,做实验时发现运行出来的优化结果时小时大,很发散。。。而且交叉率越大,就更发散。。。rn 第一次用这个算法,麻烦大家有run过这个算法的,传授下经验,看看如何能快速<em>收敛</em>吧?rnrn rn
神经网络的收敛问题
输入是个100*1的矩阵里面全部内容为a(0~9之间),输出是a.原以为这样训练会很简单.但是竟然无法<em>收敛</em>~ 经过改进加入以下两个功能好用: 1.mini-batch>1 2.输入均一处理,[-1,1]即(a-4.5)/4.5 这样<em>收敛</em>了
遗传算法加快收敛问题
我的遗传算法用的是一个封装的库 http://code.google.com/p/aforge/rn库里是标准遗传算法的封装rnrn我用来解决具体业务时,由于具体业务规则等的加入导致运算量非常大,结果跑一次迭代时间很长,但业务逻辑rn是固定的,不能省略,我也看了,业务很难再优化,所以想在算法上想办法rnrnrn想请问下怎样能加快算法<em>收敛</em>,得到一个较优秀的结果rnrn
bp算法的收敛问题
在训练过程中发现迭代次数到达20000次后,误差一直在很小的范围内变动,网络陷入了局部最小,试了几种方法,如:动态<em>学习</em>率、消除样本顺序的影响---但仍无效果。请问有更好的方法吗?
MobileNet 论文学习
这篇论文介绍了一种应用在移动设备上的网络结构,MobileNet.
fluent 不收敛问题
不<em>收敛</em><em>问题</em>的汇总和处理,残差不<em>收敛</em>不<em>收敛</em><em>问题</em>的汇总和处理,残差不<em>收敛</em>
continuity不收敛问题
(1)连续性方程不<em>收敛</em>是怎么回事?      在计算过程中其它指数都<em>收敛</em>了,就continuity不<em>收敛</em>是怎么回事。     这和fluent程序的求解方法SIMPLE有关。SIMPLE根据连续方程推导出压力修正方法求解压力。由于连续方程中流场耦合项被过渡简化,使得压力修正方程不能准确反映流场的变化,从而导致该方程<em>收敛</em>缓慢。     你可以试验SIMPLEC方法,应该会<em>收敛</em>快些。
关于收敛问题?
在[1.5 ,1.7]之间,如何判断如下两个迭代式的<em>收敛</em>性rn 1.5/(Xn-1)开根号 怎么<em>不是</em><em>收敛</em>式? rnrn 1.5+Xn*Xn开立方 怎么是<em>收敛</em>式?rnrn|
MobileNet
rn 本课程适合具有一定深度<em>学习</em>基础,希望发展为深度<em>学习</em>之计算机视觉方向的算法工程师和研发人员的同学们。rnrn基于深度<em>学习</em>的计算机视觉是目前人工智能最活跃的领域,应用非常广泛,如人脸识别和无人驾驶中的机器视觉等。该领域的发展日新月异,网络模型和算法层出不穷。如何快速入门并达到可以从事研发的高度对新手和中级水平的学生而言面临不少的挑战。精心准备的本课程希望帮助大家尽快掌握基于深度<em>学习</em>的计算机视觉的基本原理、核心算法和当前的领先技术,从而有望成为深度<em>学习</em>之计算机视觉方向的算法工程师和研发人员。rnrn本课程系统全面地讲述基于深度<em>学习</em>的计算机视觉技术的原理并进行项目实践。课程涵盖计算机视觉的七大任务,包括图像分类、目标检测、图像分割(语义分割、实例分割、全景分割)、人脸识别、图像描述、图像检索、图像生成(利用生成对抗网络)。本课程注重原理和实践相结合,逐篇深入解读经典和前沿论文70余篇,图文并茂破译算法难点, 使用思维导图梳理技术要点。项目实践使用Keras框架(后端为Tensorflow),学员可快速上手。rnrn通过本课程的<em>学习</em>,学员可把握基于深度<em>学习</em>的计算机视觉的技术发展脉络,掌握相关技术原理和算法,有助于开展该领域的研究与开发实战工作。另外,深度<em>学习</em>之计算机视觉方向的知识结构及<em>学习</em>建议请参见本人CSDN博客。rnrn本课程提供课程资料的课件PPT(pdf格式)和项目实践代码,方便学员<em>学习</em>和复习。rnrn本课程分为上下两部分,其中上部包含课程的前五章(课程介绍、深度<em>学习</em>基础、图像分类、目标检测、图像分割),下部包含课程的后四章(人脸识别、图像描述、图像检索、图像生成)。rnrnrn rnrnrn rnrnrn rnrnrn rnrnrn rnrnrn rn
MobileNet学习总结
1.<em>mobilenet</em> v1 参考下文即可,写的很好。 https://blog.csdn.net/t800ghb/article/details/78879612 自己的疑问: (1)DW层,即Depth-Wise层,是否实际上就是一个3x3的一维卷积核? 2.<em>mobilenet</em> v2 参考下文。 https://blog.csdn.net/u011995719/article/d...
学习.Net不是问题
掌握好自己的<em>学习</em>态度和<em>学习</em>方法,有时间的话重点把 http://www.rupeng.com/forum/thread-7291-1-1.html 这个帖子的内容仔细看看。会对你以后的工作<em>学习</em>和在培训班中的<em>学习</em>有很大帮助的好的<em>学习</em>态度和<em>学习</em>方法能够帮你<em>学习</em>事半功倍
ER-win没法保存的问题,紧急求助
好久不用er-win,今天做作业,用er-win model navigatior画了一张er图,结果发现<em>没法</em>保存。。。。。rnrn然后同学告诉我,用er-win model modeler才能保存。。。。我画了三个小时的一张er图啊。。。谁能告诉我,怎么把navigator里的图转到modeler中,或者直接在navigator里面怎么保存。。。(navigator的save是虚的,<em>没法</em>保存)。。。。rnrn跪谢~~~~
【1708.07120】“超级收敛“:使用很大的学习率让残差网络迅速收敛
超级<em>收敛</em>
tensoflow视频教程
https://www.bilibili.com/video/av20542427/
求助!!应该不是很难的问题
小弟在做一个网站长的播放器,就是想实现这样一个效果!rn 在主页上有很多歌曲名,这些都是通过DataList控件绑定显示的!点击任意一着歌曲名,弹出新的小窗口播放音乐,当再点击另一首歌名时,不弹出一个新窗口,而是在以前打开的窗口内播放,把第一次弹出的窗口覆盖掉!!rn 谢谢各位,感激中~~在线等!rn 本人是。NET,C#的<em>学习</em>者!rn 可加我QQ聊。NET,呵呵~~rn QQ:175457568
求助!一个不是太难的问题!
我是做ASP的,现在遇到一个<em>问题</em>是怎样把ASP页网中的cookie传到在有Javascript的html的页面中去使用,也就是JAVAscript能直接接收它吗?
求助VFP问题!分数不是问题
我对VFP不大了解,请各位高手帮忙,要求用VFP实现!分数不够可以再加!rn一;填空题:rnUSE DELETE FILE&FILENAME EXIT ELSE WAIT"继续吗?(Y/N)"TO YN rn IF LOWER(YN)="N" USE EXIT ENDIF_____ENNDO rn二;编程rn1.从键盘任意输入N个数去掉其中最大值和最小值然后求平均值 rn2.求1!+2!+3!+.....100!的值 rn3.循环从键盘100-999之间的正整数判断其是否为水仙花数(水仙花数:指一个3位数,其各位数字立方和等于该数本身)如153 rn
求助程序加壳问题,分不是问题:)
运行加壳程序时, 用户执行的实际上是这个外壳的程序,而这个外壳程序负责把用户原来的程序在内存中解压缩,并把控制权交还给解开后的真正的程序,由于一切工作都是在内存中运行,用户根本不知道也不需要知道其运行过程,只要执行起来没有变化就好。rn<em>问题</em>是,如何将原来的程序在内存中运行,而<em>不是</em>存放到磁盘上再运行? rn
离线安装tensoflow
使用conda 命令在线安装tensorflow会下载中断,现在清华大学镜像源中下好tensorflow安装包,然后使用pip命令 pip install &amp;quot;下在的安装包的路径&amp;quot; 例如: pip install &amp;quot;C:\Users\28614\Desktop\tensorflow-gpu 1.13.1&amp;quot; ...
学习率的作用,学习率衰减,函数
目录 1.<em>学习</em>率的作用 2.<em>学习</em>率衰减常用参数有哪些 3.常见衰减函数 3.1分段常数衰减 3.2指数衰减 3.3自然指数衰减 3.4多项式衰减 3.5余弦衰减 1.<em>学习</em>率的作用 ​ 梯度下降法是一个广泛被用来最小化模型误差的参数优化算法。梯度下降法通过多次迭代,并在每一步中最小化成本函数(cost 来估计模型的参数。<em>学习</em>率 (learning rate),在迭代过程中会...
学习
<em>学习</em>率越大,模型<em>收敛</em>的越快速,在模型的训练后期,可以适当的将优化器中的<em>学习</em>率慢慢调小
MobileNet学习(一)——轻量级神经网络
暑假有个实验作业是行人检测,这个其实有现有的模型,印象中coco就有一个官方训练出来的caffemodel,效果也是挺不错的,但老师希望我们自己搭网络进行实现,其中向我们推荐了轻量级神经网络MobileNet,但对此<em>不是</em>很了解。于是就开始各种博客<em>学习</em>,以下是<em>学习</em>记录。 进行了<em>学习</em>的博客链接: https://blog.csdn.net/beizhengren/article/details/791...
DEM反应不收敛问题
之前算DEM反应一直不<em>收敛</em>,后来把计算规模减少到两个固定颗粒,也就是仿照reactive-chemistry和evaperation这两个算例。 目前reactive-chemistry这个算例,把各种输运方程都打开以后,DES_ONEWAY_COUPLED设置为False,就会出现不<em>收敛</em>的情况,而evaperation换成同样的网格和几何,就没有这个情况,于是索性在evaperation上改。...
Hspice的收敛问题以及解决方法
Hspice的<em>收敛</em><em>问题</em>的常见原因 以及相应的解决方法
一个关于‘收敛半径’的问题
不知我的‘<em>收敛</em>半径’的做法是否正确,诚请会此的热心人帮忙确认并指教,谢谢 rn[img=c://1.jpg][/img]rnrnrn[img=c://2.jpg][/img]
求助求助,ASP.NET学习问题
本人初次接触ASP.NET是在06年初,一直想做一名WEB程序员。于是<em>学习</em>了ASP.NET,学的是青鸟的那个视频教程,一边看下来之后懂了个大概。然后自己照着本书写了一个论坛,用的VS2003+SQL2000+IIS6.0,功能只有基本的发贴回帖,做好之后我还想拿着它去找工作了,可是越看代码越难看,自己都觉得写的代码差太远了。于是就没去,估计去了人家也不会要我。后来由于其它原因做了别的工作,我很不喜欢这个工作。干了不到半年,我还是想写代码,于是辞职了。其间看了C#的书,学的是一塌糊涂。我也知道瞎写不行,想系统的<em>学习</em>一下。rnrn 我大致看了看,有好多内容,ASP.NET和C#就不用说了,还有像什么AJAX,CSS,JAVASCRIPT,SQL,设计模式,编码规范,VSTS,UML建模,还有项目开发的步骤,需求分析,系统设计,项目编码,测试,产品化等等好多好多。rn rn 目前我还在写一个论坛,现在是一头雾水,不知道该如何做,分不清前后步骤。rnrn 请教大家这些该如何<em>学习</em>,有没有先后顺序。rnrn 希望做过项目开发的朋友以及懂的朋友们帮助rn rn 还请各位高手和朋友们指点一下。
求助:马尔可夫链的初始状态和收敛定理
如题,最近在看潜在狄利克雷分布和吉布斯采样的相关资料,对于为什么马尔可夫链的<em>收敛</em>结果与初始状态无关,以及马尔可夫链为什么会<em>收敛</em>弄不明白,希望高手能解答一下,谢谢!
一个关于收敛半径的问题
不知我的[color=#FF0000]‘<em>收敛</em>半径’[/color]的做法是否正确,诚请会此的热心人帮忙确认并指教,谢谢 rnrn<em>问题</em>1:请点击如下链接:rn[url=http://p13.freep.cn/p.aspx?u=v20_p13_p_0911240054055385_0.jpg][/url]rnrn<em>问题</em>2:请点击如下链接:rn[url=http://p13.freep.cn/p.aspx?u=v20_p13_p_0911240055264453_0.jpg][/url]
一个二分类器的不收敛问题
糟糕的<em>收敛</em>情况是这样子的:[img=https://img-bbs.csdn.net/upload/201710/19/1508413885_209251.png][/img]rn导入数据模块是这样子的:[code=python]class mydata:rn def get_datas_dirs_lists(self, dirs):rn # 存放图片集的路径rn imgs = []rnrn # 存放男女标签,男:0,女:1rn labels = []rnrn # 遍历male_dir中的所有文件,来填充male_imgs和male_labelsrn i = 0rn for dirt in dirs:rn temp = []rn for path in os.listdir(dirt):rn name = path.split('.')rn if name[-1] == 'jpg':rn temp.append(dirt + path)rn labels.append(i)rn i += 1rn imgs = numpy.hstack((imgs, temp))rnrn # 打乱列表元素的顺序rn def shuffle(imgs, labels):rn # 先将图片集和标签集存放在二维数组中,这样图片和对应的标签作为一个整体进行打乱rn temp = numpy.array([imgs, labels])rn # 矩阵转置rn temp = temp.transpose()rn # 打乱rn numpy.random.shuffle(temp)rn # 将temp再次分开rn imgs = temp[:, 0]rn labels = temp[:, 1]rn labels = [int(i) for i in labels]rnrn return imgs, labelsrnrn imgs, labels = shuffle(imgs=imgs, labels=labels)rn return imgs, labelsrnrn def get_batch(slef, batch_size, imgs, labels, img_width, img_height, capacity):rn # 将图片路径和标签转化成tensorflow中的数据形式rn imgs = tf.cast(imgs, tf.string)rn labels = tf.cast(labels, tf.int32)rnrn # 生成输入队列rn input_queue = tf.train.slice_input_producer([imgs, labels])rnrn # 从路径列表中读取出图片rn imgs = tf.read_file(input_queue[0])rn labels = input_queue[1]rnrn # 对图片进行解码rn imgs = tf.image.decode_jpeg(imgs, channels=1)rnrn # 图片大小统一化rn imgs = tf.image.resize_image_with_crop_or_pad(imgs, img_width, img_height)rnrn # 生成批次rn # capacity是队列的长度rn imgs_batch, labels_batch = tf.train.batch([imgs, labels],rn batch_size=batch_size,rn num_threads=64,rn capacity=capacity)rnrn image_batch = tf.cast(imgs_batch, tf.float32)rn label_batch = tf.reshape(labels_batch, [batch_size])rnrn return image_batch, label_batch[/code]rn网络设计代码是这样字的:[code=python]class model:rn def variable_with_weight_loss(self, shape, stddev):rn weight = tf.Variable(tf.truncated_normal(shape=shape, stddev=stddev))rn return weightrnrn # , images, batch_size, n_classesrn def inference(self, train_batch, batch_size, n_classes):rn # 卷积层rn weight1 = self.variable_with_weight_loss([11, 11, 1, 16], stddev=5e-2)rn bias1 = tf.constant(0, tf.float32, [16])rn kernel1 = tf.nn.conv2d(train_batch, weight1, strides=[1, 1, 1, 1], padding='SAME')rn conv1 = tf.nn.relu(tf.nn.bias_add(kernel1, bias1))rn pool1 = tf.nn.max_pool(conv1, [1, 3, 3, 1], strides=[1, 2, 2, 1], padding='SAME')rn dropout1 = tf.nn.dropout(pool1, keep_prob=0.5)rnrn weight2 = self.variable_with_weight_loss([11, 11, 16, 32], stddev=5e-2)rn bias2 = tf.constant(0.1, tf.float32, [32])rn kernel2 = tf.nn.conv2d(dropout1, weight2, strides=[1, 1, 1, 1], padding='SAME')rn conv2 = tf.nn.relu(tf.nn.bias_add(kernel2, bias2))rn pool2 = tf.nn.max_pool(conv2, [1, 3, 3, 1], strides=[1, 2, 2, 1], padding='SAME')rn dropout2 = tf.nn.dropout(pool2, keep_prob=0.5)rnrn weight3 = self.variable_with_weight_loss([5, 5, 32, 32], stddev=5e-2)rn bias3 = tf.constant(0.1, tf.float32, [32])rn kernel3 = tf.nn.conv2d(dropout2, weight3, strides=[1, 1, 1, 1], padding='SAME')rn conv3 = tf.nn.relu(tf.nn.bias_add(kernel3, bias3))rn pool3 = tf.nn.max_pool(conv3, [1, 3, 3, 1], strides=[1, 2, 2, 1], padding='SAME')rn dropout3 = tf.nn.dropout(pool3, keep_prob=0.5)rnrn ##########################rn # 全连接层rn reshape = tf.reshape(dropout3, shape=[batch_size, -1])rn dim = reshape.get_shape()[1].valuern print(reshape)rn print(dim)rn weight4 = self.variable_with_weight_loss([dim, 448], stddev=0.005)rn # 全连接层的偏置x是上一个卷积核个数rn bias4 = tf.constant(0.1, shape=[448], dtype=tf.float32)rn local4 = tf.nn.relu(tf.add(tf.matmul(reshape, weight4), bias4))rnrn weight5 = self.variable_with_weight_loss([448, 224], stddev=0.005)rn bias5 = tf.constant(0.1, shape=[224], dtype=tf.float32)rn local5 = tf.nn.relu(tf.add(tf.matmul(local4, weight5), bias5))rnrn ##################################rn # 输出层rn weight6 = self.variable_with_weight_loss(shape=[224, n_classes], stddev=1 / 224.0)rn bias6 = tf.constant(0.0, shape=[n_classes])rn logits = tf.add(tf.matmul(local5, weight6), bias6)rn return logitsrnrn def losses(self, logits, labels):rn '''rnrn :param logits: logits tensor, float, [batch_size, n_classes]rn :param labels: label tensor, tf.int32, [batch_size]rn :return: loss tensor of float typern '''rn with tf.variable_scope('loss') as scope:rn cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits,rn labels=labels,rn name='xentropy_per_example')rn loss = tf.reduce_mean(cross_entropy, name='loss')rn tf.summary.scalar(scope.name + '/loss', loss)rn return lossrnrn def trainning(self, loss, learning_rate):rn '''rn Trainning opsrn :param loss: loss tensor, from losses()rn :param learning_rate: <em>学习</em>率rn :return: the op of trainningrn '''rn with tf.name_scope('optimizer'):rn # 优化<em>学习</em>算法(降低loss)rn optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)rn global_step = tf.Variable(0, name='global_step', trainable=False)rn train_op = optimizer.minimize(loss, global_step=global_step)rn return train_oprnrn def evaluation(self, logits, labels):rn '''rn Evaluation the quality of the logits at predicting the labelrn :param logits: Logits tensor,float - [batch_size, NUM_CLASS]rn :param labels: Labels tensor,int32 - [batch_size, with values in the range(0, NUM_CLASS)rn :return: a scalar int32 tensor with the number of examples(out of batch_size)rn '''rn with tf.variable_scope('accuracy') as scope:rn correct = tf.nn.in_top_k(logits, labels, 1)rn correct = tf.cast(correct, tf.float16)rn accuracy = tf.reduce_mean(correct)rn tf.summary.scalar(scope.name + '/accuracy', accuracy)rnrn return accuracyrn[/code]rn训练代码是这样子的:rn[code=python]class train:rn def run_training(self, train, train_label):rn logs_train_dir = 'J:\chekpoint/'rn BATCH_SIZE = 16rn CAPACITY = 200rn N_CLASSES = 2rn learning_rate = 0.000000000001rn MAX_STEP = 20000rn train_batch, train_label_batch = data.get_batch(imgs=train,rn labels=train_label,rn img_width=92,rn img_height=119,rn batch_size=BATCH_SIZE,rn capacity=CAPACITY)rn train_logits = model.inference(train_batch,rn BATCH_SIZE,rn N_CLASSES)rn train_loss = model.losses(train_logits, train_label_batch)rn train_op = model.trainning(loss=train_loss, learning_rate=learning_rate)rn # 准确率rn train_acc = model.evaluation(train_logits, train_label_batch)rnrn summary_op = tf.summary.merge_all()rn sess = tf.Session()rn train_writer = tf.summary.FileWriter(logs_train_dir, sess.graph)rn saver = tf.train.Saver()rnrn sess.run(tf.global_variables_initializer())rn coord = tf.train.Coordinator()rn threads = tf.train.start_queue_runners(sess=sess, coord=coord)rnrn try:rn for step in np.arange(MAX_STEP):rn if coord.should_stop():rn breakrn start_time = time.time()rn _, tra_loss, tra_acc = sess.run([train_op, train_loss, train_acc])rn time_cost = time.time() - start_timern if step % 50 == 0:rn print("cost time:", time_cost,rn 'Step %d,train loss = %.2f,train accuracy = %.2f%%' % (step, tra_loss, tra_acc))rn summary_str = sess.run(summary_op)rn train_writer.add_summary(summary_str, step)rnrn if step % 2000 == 0 or (step + 1) == MAX_STEP:rn checkpoint_path = os.path.join(logs_train_dir, 'model.ckpt')rn saver.save(sess, checkpoint_path, global_step=step)rn except tf.errors.OutOfRangeError:rn print('Done training -- epoch limit reached')rn finally:rn coord.request_stop()rnif __name__ == '__main__':rn trainer = train()rn model = model()rn data = mydata()rn train, label = data.get_datas_dirs_lists(['J:/train/sZJ/', 'J:/train/sCXP/'])rn trainer.run_training(train, label)rn[/code]rn<em>问题</em>很长,谢谢前辈们指点[img=https://forum.csdn.net/PointForum/ui/scripts/csdn/Plugin/003/monkey/2.gif][/img]
进度条没法显示的问题
自定义一个圆形进度条,结果发现圆形进度条没有出现,应该是ondraw()方法出了<em>问题</em>。 我把这里的两个int值强转成float后,进度条就出来了。
QQ没法上的问题
我是局域网中的一台机器 rnrn为什么上不了QQ rn宽带10M的 rnrn哪儿里需要设一下 rnrn谢谢 rn
电脑没法启动问题
我的一部旧电脑是p3的主版也很旧也不知是什么版本,开机后cpu,硬盘都在转动,但是显示器就是<em>没法</em>显示启动界面,就像是没有开机哪样显示器没有反应,我试过将显示器插到正常的电脑上啊可以启动,又试过将其硬盘插到其他正常电脑上硬盘正常启动.插回去就是启动不了,请各位大侠帮帮忙啊.
9i没法登陆的问题
我操作系统xp.装得是9i.当我装好后,用emc登陆的时候,独立启动可以,可是选择:登陆倒oracle management server的时候,却死活登陆不上去,这个是为什么rn出现警告 VTK-1000:无法连接到MANAGERMENT SERVER192.168.1.199(本级ip\地址)rn请验证您输入的oracle MANAGERMENT SERVER 的正确主机名和状态.
没法在简单的问题
点右键d盘,格式化与用安装盘格式化的区别
收敛域、收敛区间与收敛半径
<em>收敛</em>域、<em>收敛</em>区间与<em>收敛</em>半径@(微积分)<em>收敛</em>域:所有<em>收敛</em>点构成的集合。定理:设n充分大,an≠0a_n\neq 0,并设limn→∞|an+1an|=ρ\lim_{n\rightarrow \infty}|\frac{a_{n+1}}{a_n}| = \rho<em>收敛</em>半径R=1ρR = \frac{1}{\rho} 因此,ρ=0时,R=+∞\rho = 0时,R = +\inftyρ=+∞时,R=0\r
求助,虚拟机没法上网
在win7系统下装的virtualbox虚拟机,然后装的ubuntu11.10现在win7下可以上网,ubuntu上不了网,是怎么回事?
收敛速度:线性收敛,超线性收敛,r 阶收敛
最优化理论中,评价一个算法的<em>收敛</em>速度有两个衡量尺度,Q-<em>收敛</em>与 R-<em>收敛</em>,我们一般用到的是 Q-<em>收敛</em>,它包括:线性<em>收敛</em>,超线性<em>收敛</em>,r 阶<em>收敛</em>。 设相邻两个迭代点:x_(k+1), x_{k}, 最优值点 x*,若存在实数 q>0,满足: 1. 若 0线性<em>收敛</em> 2. 若 q=0,则表示算法超线性<em>收敛</em> 若 并且 r>1, q>=0, 则称算法 r 阶<em>收敛</em>。
收敛区间和收敛
在试题中,一般都会明确让我们求出来,当然,计算题目不说,我们还是得把它求出来。 明确解题步骤如下:(注:为了应对缺项幂级数,你在求<em>收敛</em>半径的式子中就把x带上最好,这样不容易出错!) 例1:缺项幂级数 例2:标准解题模板 总结:这<em>不是</em>难点,解题时不要忘记了就好!...
求助问题,学习
如: 表1:字段arn 值: 1.0 rn 2.0 rn 3.0 rn rn 表2:字段Arn 值: 如果表1a=1.0,那么值为 a*Krn 如果表1a=2.0,那么值为a*(K/2)rn 如a=3.0,值为a*(K/3)rn如何做?不知道<em>问题</em>说的是否清楚
学习问题求助
我在<em>学习</em>数据结构时遇到一些<em>问题</em>,请教一下:rn一,在《数据结构》(清大严蔚敏C语言版)中,在算法中有一个DESTORYSTACK(),是销毁一个栈,老师解释说是对函数进行封装,应怎样理解?又怎样实现这个函数。rn二,在结构体变量引用中,“。”与“->”到底有没有区别,可不可通用?
求助,C++学习问题
<em>学习</em>软件2年 从谭浩强C 到C primer plus 到C++primer 如今 已经熟练的编写整个C++primer 里面的例子和题目rn 算法从 严蔚敏的数据结构导论 到 老外的算法导论 算法导论大致的可以理解rn 数学 从 数列,函数,集合到 微积分 概率 全部自学,没有师傅rn 下载面临一个<em>问题</em>,我一直没有做过一个工程,我能够写算法 能够写程序,可是都是小程序,想写一个五子棋,可是需要windows API或者MFC ,可是最不想的就是把时间浪费在系统里的函数的记忆上!rn 网络编程 数据库编程 压根没接触过...一直在<em>学习</em>的就是这些基础,看的就是这么几本书,现在想换一批新书,该看什么?现在我能做什么程序,总是不能写一个完整的大的工程 总是感觉心里没底,看北大的某人说 大一开学还没有接触过电脑,第一学期就可以独立做一个五子棋对弈程序或者一个五子棋网络对战,突然觉得自己这两年好像还不如别人一学期。又有点自卑!不知道该何去何从....真不知道他们半年是怎么学得 从语法到标准库 在到算法 在到界面或者网络设计!rn 大家推荐几本书吧,我该换书了,现在基础感觉已经差不多了...书也都已经翻烂了,是真的烂了,C++PRIMER 都已经散架了
求助学习Spring的问题
哪位推荐一下<em>学习</em>spring原理的好书。现在想<em>学习</em>下原理rnrn还有hibernate struts 各位 讲框架原理的书籍哪本好一些 推荐一下rnrn
关于丢包率的问题
请问目前基于主动方法的丢包率的推测有哪些实现方法,帮我分析一下这些方法的优劣,谢谢!
ie8缩放率的问题
画面A window.open弹出一个画面B之后,画面B像根据画面A的缩放率来调整画面B的大小rn就是想知道在IE8的环境下,能否取得IE右下角的缩放率,然后作为参数传到下一个画面上去。rn如果知道的请告诉我,非常感谢!!rn也可以发到这里 angelhaoweiguang@hotmail.com
妥投率问题
最近要求写一段程序,现把<em>问题</em>描述一下,以整理思绪。           这张表叫做收寄表TB_EVT_MAIL_CLCT,主要描述收寄的相关信息,为做简化,包含字段有邮件编号,收寄日期,收件人,发件人,加载日期,加载时间            收寄日期(CLCT_DATE)就是指的是你去邮局寄邮件的日期,但收寄日期并不代表邮局人员录入数据到系统的时间,很有可能他是隔了一两天才录入得,据经验过了
二维码纠错率的问题
2019独角兽企业重金招聘Python工程师标准&gt;&gt;&gt; ...
WINPCAP 发包率问题
WINDOWS系统,CPU双核,4M二级缓存,内存2G,包大小153字节,千兆网卡使用pcap_sendpacket函数发送至100M局域网络,结果最大发送速度为2Mb/s,网络带宽使用率还不到2%!!!rn我的程序就是用一个死循环不断调用pcap_sendpacket发包的,请问,winpcap的发包效率是跟什么有关,怎么开启了最大性能后,发包率都还那么低.rn
收敛
什么是<em>收敛</em>? <em>收敛</em>是指所有路由器的路由表达到一致的过程。当所有路由器都获取到完整而准确的网络信息时,网络即完成<em>收敛</em>。<em>收敛</em>时间是指路由器共享网络信息、计算最佳路径并更新路由表所花费的时间。网络在完成<em>收敛</em>后才可以正常运行,因此,大部分网络都需要在很短的时间内完成<em>收敛</em>。 <em>收敛</em>过程既具协作性,又具独立性。路由器之间既需要共享路由信息,各个路由器也必须独立计算拓扑结构...
UDP回传率的问题
大家好,rn采用udp协议,每次回传约120个字节,每次回传时手动控制回传,平均的回传的时间间隔大概在1-2分钟以上。rnrn现在测试的状态是:本来需要回传300条数据,但会有7条左右无法收到,这样的回传率是正常的吗?rn而且,这七条左右的无法收到的数据是集中在100条内出现,而其他时候均是正常的。rnrn貌似出现udp回传数据无法收到的情况也是没有规律的。rn
测试率覆盖的问题
请问大家,有什么有效的方法使测试一个大项目的测试覆盖率最高,发现的<em>问题</em>最多呢?请大家发表自己的见解:)
收敛与弱收敛
强<em>收敛</em>和弱<em>收敛</em>是泛函分析中的重要概念,二者之间的关系如何呢?这是个非常困难的<em>问题</em>。我们先叙述定义:定义. 设X 是赋范线性空间,{x n }⊂X ,x 0 ∈X 。(1)如果lim n→∞ ∥x n −x 0 ∥=0 ,则称{x n } 强<em>收敛</em>于x 0 ;(2)若对每个f∈X ∗ ,lim n→∞ f(x n )=f(x 0 ) ,则称{x n } 弱<em>收敛</em>于x 0 。 强<em>收敛</em>可以推出弱<em>收敛</em>,这是很
函数收敛,数列收敛 ,积分收敛
函数<em>收敛</em>:就是当x趋于无时,函数有常数c; 数列<em>收敛</em> :就是当x趋于无穷时,数列x(n)是常数c; 积分<em>收敛</em>:就是当上界趋于无穷时,积分中的函数有常数c,也就是函数围成的面积有常数C。     <em>收敛</em>数列 令{    }为一个数列,且A为一个固定的实数,如果对于任意给出的b&amp;gt;0,存在一个正整数N,使得对于任意n&amp;gt;N,有|    -A|&amp;lt;b恒成立,就称数列{  ...
mobilenet model
ssd_<em>mobilenet</em>_v1_0.75_depth_300x300_coco14_sync_2018_07_03.tar包含训练的权重文件,可直接下载使用
满分相送!问个不是很的问题!!解贴率:100%
<em>问题</em>是这样的:rn1,在一个发布目录http://location下,有一个文件aa.asp。rn2,我在地址栏上输入http://location/bb.asprn<em>问题</em>就出现了。那么http://location/bb.asp的页面肯定是“该页无法显示”.因为没有bb.asp这个文件。rn<em>问题</em>是:rn当我http://location/bb.asp或者是其它发布目录下没有的文件。我要它们都跳到http://location/aa.asp里!!请问怎么做。有好多网站是这样子的。rn最好给我代码!谢谢~~~~
tensoflow的slim框架的使用
需要从https://github.com/tensorflow/models/tree/master/research下载slim的相关代码。对slim下面的文件进行相应的权限的修改,chmod +x *同时对slim/scripts里面的权限也做相应的修改更改train_cifarnet_on_cifar10.sh,数据的保存的路径还要注意的是如果tensorflow用的是python3安装,...
Tensoflow sess.run导致的内存溢出
下面是调用模型进行批量测试的代码(出现溢出),开始以为导致溢出的原因是数据读入方式<em>问题</em>引起的,用了tf , PIL和cv等方式读入图片数据,发现越来越慢,内存占用飙升,调试时发现是sess.run这里出了<em>问题</em>(随着for循环进行速度越来越慢)。 # Creates graph from saved GraphDef create_graph(pb_path) ...
MobileNet论文翻译
MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 摘要 我们发明了一类有效的为了可移动的设备和课编码版本的应用的模型叫做MobileNets. MobileNets是基于一种使用深度可分割卷积去建立轻量型网络结构的流线型结构。我们引进了两个简单的超参数,这两个超参数在延迟和准确率...
MobileNet论文
MobileNet论文MobileNets are based on a streamlined architecture that uses depth- wise separable convolutions to build light weight deep neural networks.
mobilenet for caffe
4月新模型<em>mobilenet</em> for caffe,做项目使用过,包含网络模型和训练bat文件
手机端mobileNet
mobileNet,用于快速实时的目标检测,可在手机端进行试用。
【深度学习MobileNet】——深刻解读MobileNet网络结构
本文转载自:引言卷积神经网络(CNN)已经普遍应用在计算机视觉领域,并且已经取得了不错的效果。图1为近几年来CNN在ImageNet竞赛的表现,可以看到为了追求分类准确度,模型深度越来越深,模型复杂度也越来越高,如深度残差网络(ResNet)其层数已经多达152层。 图1 CNN在ImageNet上的表现(来源:CVPR2017) 然而,在某些真实的应用场景如移动或者嵌入式设备,如此大而复杂的模型...
mobilenet学习笔记
输入112x112x16 一般情况下卷积核为3x3x16x64,参数个数9216 计算量为3x3x112x112x16x64=115605504 <em>mobilenet</em>_v1: 使用两个卷积核替代原先的卷积核,分别是3x3x1x16和1x1x16x64,参数个数为1168 计算方法: 1、分别用16个3x3x1的卷积核分别对112x112x16的16个通道做卷积(类似对16张单通道图像做卷...
MobileNet学习笔记
MobileNet v1 论文中提到,MobileNet的创新点在于使用深度可分离卷积代替传统卷积用于提取特征,达到减少计算资源损耗和减小模型大小的目的。 传统卷积中,G为下一层特征图,F为输入的特征图,K为kernel,M为输入通道数,N为输出通道数。                                                                所需要的计...
深度学习mobilenet
<em>mobilenet</em>的实现参考:github的tensorflow官网slim/nets中的具体模型实现,同时还可以使用keras架构实现的版本 <em>mobilenet</em>介绍参考:https://blog.csdn.net/chenyuping333/article/details/81363125 Bottleneck Layer:https://blog.csdn.net/u011501388/a...
mobilenet的理解
<em>mobilenet</em>的特点在于inference的速度非常快。拿ssd为例,如果<em>mobilenet</em>作为backbone的速度大概是vgg作为backnobe的3倍,因此它是可以在移动端落地的网络。但是凡事都有两面性,在相同的数据集下,比如今年公开的open image 数据集下,很多类别在100-200个epoch后,<em>mobilenet</em>的map通常要比vgg低20个点左右。 接下来就详细说一下mob...
轻量级深度学习网络——MobileNet & MobileNet v2
这篇文章呢主要讲的是轻量化的网络,我们主要是介绍两种主要的网络,一个是MobileNet,另一个是SuffleNet。此外,我们还会分享一些轻量化模型的方法和知识。(如果有不周到的地方还请父老乡亲们多多指出,跪谢!) MobileNet ...
【转】【深度学习MobileNet】——深刻解读MobileNet网络结构
本文转载自:https://zhuanlan.zhihu.com/p/31551004 引言 卷积神经网络(CNN)已经普遍应用在计算机视觉领域,并且已经取得了不错的效果。图1为近几年来CNN在ImageNet竞赛的表现,可以看到为了追求分类准确度,模型深度越来越深,模型复杂度也越来越高,如深度残差网络(ResNet)其层数已经多达152层。 图1 CNN在ImageNet上的表现(来源:CVP...
区分级数收敛和数列收敛
级数<em>收敛</em>是加项和Sn的<em>收敛</em>,即Sn的极限存在,而数列<em>收敛</em>则是an的<em>收敛</em>,即an的极限存在; 注意区分二者并总结二者的区别和特例
Caffe下Mobilenet SSD的一些奇葩冷门问题
  最近被Moilenet SSD虐的真的是不要不要的,花了两周的时候才算是彻底跑通它的源码和训练自己的数据集(虽然这摸摸那摸摸的时间占了一大半),而且我以前基本是不用Caffe这个框架的,因为以前也是在编译Caffe的时候被虐惨了,所以一直都是Tensorflow的忠实爱好者,但是上手之后(。。。真香)。废话不多说,直接进入正题~~   安装caffe ssd可以参考这个大神的:https:/...
tensoflow练习7:生成图片
Google把自家生成图片的技术 Inceptionism 开源化,称之为 Deep Dream ,一个原本用来将图片分类的AI,让我们看到不一样的世界~在把一张图片喂入之后,选择某一层神经网路(Google 的神经网路有 10-30 层)进行重复处理的次数和变形的程度,就能获得一张非常后现代的「画作」。 数据集: 1)https://pan.baidu.com/s/1kVSA8z9 (密码:
Tensoflow 模型持久化(下)
    书接上回:    加载tensorFlow计算图时,并不需要加载全部变量。比如,有可能有一个之前训练好的五层神经网络模型,但现在想尝试一个六层的神经网络,那么可以将前面五层神经网络中的参数直接加载到新的模型,而仅仅将最后一层神经网络重新训练。       为了保存或者加载部分变量,在声明tf.train.Saver类时可以提供一个列表来制定需要保存或者加载的变量,比如在加载模型的代码中使用...
关于深拷贝与浅拷贝的问题,不是很懂!求助.
在<em>学习</em>java过程中对深拷贝与浅拷贝<em>不是</em>很理解,那位大哥能用段具体代码说明一下吗?谢谢!
求助:一个应该不是很难的问题,非常感谢!!
部分代码如下:rnrn rn   rn     用户名rn 操作rn rnrnrn rn rn rn rnrn 激活帐号启用帐号 rn rn rn rnrnrn现在要实现的功能有:rn 1.点击激活帐号按钮进入一个连接action.aspx?ID==&ac=1,并设置启用按钮隐藏或者不可用.rnrn 2.点击启用帐号按钮进入一个连接action.aspx?ID==&ac=2,并设置激活按钮隐藏或者不可用.rnrn不知道描述的是否够清楚,希望会做的或者做过类似的程序的强人帮个忙,谢谢!!rn
求助关于下拉框的问题!不是很明白!
rnrnrn rn rnrnrn年rnrnrnrn月rnrnrnrn日 rnrn rnrn下拉框初始值是从数据库中提出!rn希望点击提交按钮后,下拉框的值为所选择的,应该怎么写??
求助!在线等候!分不是问题!!!!!!!!!!
如何实现象QQ界面上的那种折叠效果,比如按下好友就显示好友列表,按下陌生人就显示陌生人列表,有现成的空间吗?
分布式事务的问题,真的没法解决这个问题???
查了以前的好多帖子,没有发现自己想要的rn我的目前需求是,导入一个存在的DBF文件,然后读取一些信息,再做一些逻辑判断,部分代码如下rnBEGIN DISTRIBUTED TRANSACTION rn DECLARE @CPCODE VARCHAR(20)rn EXEC('select * into TB_TEMP_SYSIN from openrowsetrn (''MSDASQL'',''Driver=Microsoft Visual FoxPro Driver;SourceType=DBF;rn SourceDB='+@FILE_PATH+''',rn ''select * from '+@FILE_NAME+''')')rn rn //下面是一些逻辑判断rnCOMMIT TRANrnrn我如果没用事务当然可以,一用的话rn该操作未能执行,因为 OLE DB 提供程序 'MSDASQL' 无法启动分布式事务。rn[OLE/DB provider returned message: [Microsoft][ODBC Visual FoxPro Driver]Driver not capable]rnOLE DB 错误跟踪[OLE/DB Provider 'MSDASQL' ITransactionJoin::JoinTransaction returned 0x8004d00a]rnrnrn<em>问题</em>是,我必须用,因为实际需求是,把多个DBF文件导入,如果其中1个出错,必须全部回滚数据rnrn请教,怎么解决这个难题啊~~~~~~~~~~
问个不是问题问题
如果想学好EJB该怎么开始rn对于j2ee的RIrnJAVA_HOME与J2EE_HOME中要设置的内容是什么rn先谢了
不是问题问题
下载了rnVisual Basic .NET Resource Kitrn怎么用?rn已经按提示装了asp.netrn但打开地址:rnhttp://localhost/VB.NETResourceKit/Welcome.aspxrn乱码。rn是<em>不是</em>没装许可证书的原因?rn<em>求助</em>!
也许不是问题问题
//GreatRace.javarnimport java.awt.Graphics;rnimport java.awt.GridLayout;rnimport java.awt.Frame;rnimport Threader;rn.......rn......rn......rnrnrnrnrnrn//Threader.javarnimport java.awt.Graphics;rnimport java.awt.Color;rnpublic class Threader extends java.awt.Canvas implements Runnablern.......rn........rn.......rn这两个java文件在同一个目录下,为什么我在javac GreatRace.java 时出现class Threader not founder in import?rn恳请赐教!!!
一个不是问题问题
怎么在同一个程序中使用两个库?rnrn#includern#includernmain()rnrn cout<);rnrnrn谢谢rnrnrnrn
想了个不是问题问题
昨天被一个<em>问题</em>困扰到,最后发现这个<em>问题</em>就<em>不是</em>个<em>问题</em>。所以想记录下来,提醒自己一天干点正事,别瞎想! 怎么说呢?就是写服务器和客户端程序,两端想互相发送文件,对于小文件来说的话,是没啥,感觉不到发送过程的缓慢,但是换成一个几百兆的文件,就有点累了,得等上个几分钟才能发完,我就想为什么不能实现秒传。所以就在网上<em>学习</em>了多线程发送技术。实现了近百兆文件秒发的目标。觉得自己的目标快实现了。具体功能就是服务器...
一个不是问题问题.
大家好,我刚开始学数据库,ACESS,有个<em>问题</em>我不明白 ,设定主键和不设定主键有什么区别吗?对ASP程序有什么影响呢?rn如果我要学SQL语言,哪本书好一点>网上哪里可以下载这样的手册和教程.rn希望大家帮帮我
学习中的梯度下降Ⅱ-学习
调试梯度下降。用x轴上的迭代数绘制一个图。现在测量成本函数,J(θ)随迭代次数下降。如果J(θ)不断增加,那么你可能需要减少α。 自动<em>收敛</em>试验。如果该声明<em>收敛</em>(θ)小于E在一次迭代中减少,其中E是一些小的值,如10−3。然而,在实践中很难选择这个阈值。 它已被证明,如果<em>学习</em>率α足够小,那么J(θ)每次迭代都减小。 总结:如果α太小,<em>收敛</em>速度慢如果α太大:可能不会在...
C语言 毫秒级丢包率,路由收敛时长测试
int main(int argc ,char *argv[]) { #include &lt;pcap.h&gt; #include &lt;stdio.h&gt; #include &lt;signal.h&gt; #include &lt;stdlib.h&gt; /* struct timeval{ long int tv_sec; // 秒数 long int tv_us...
Tomcat —— 不是问题问题
启动 项目在tomcat 7 上启动,又是提示错误: java.security.AccessControlException: access denied 又是提示(这个可通过设置tomcat 勾选publish module to separate XML file 解决 ): Setting property 'source' to 'org.eclipse.jst.jee.serv
java例子和源代码下载
很好的例子和代码 很适合学习 非常值得借鉴O(∩_∩)O~ 相关下载链接:[url=//download.csdn.net/download/ningxiaonana/2503313?utm_source=bbsseo]//download.csdn.net/download/ningxiaonana/2503313?utm_source=bbsseo[/url]
计算机图形学 dda算法 适合初学者使用学习 谢谢 vc下载
计算机图形学 dda算法 适合初学者使用学习 谢谢 vc 相关下载链接:[url=//download.csdn.net/download/sui0315/2704382?utm_source=bbsseo]//download.csdn.net/download/sui0315/2704382?utm_source=bbsseo[/url]
TMS Pack for FireMonkey下载
Highly styleable cross-platform FireMonkey controls Support for Windows 32 bit, 64 bit, Mac OS X and iOS Support for HTML formatted text, including hyperlinks in various parts of the components Built-in support for LiveBindings in TTMSFMXTableView and TTMSFMXTileList, allows to bind any 相关下载链接:[url=//download.csdn.net/download/bjabc/5002078?utm_source=bbsseo]//download.csdn.net/download/bjabc/5002078?utm_source=bbsseo[/url]
相关热词 c# gdi 占用内存 c#中遍历字典 c#控制台模拟dos c# 斜率 最小二乘法 c#进程延迟 c# mysql完整项目 c# grid 总行数 c# web浏览器插件 c# xml 生成xsd c# 操作sql视图
我们是很有底线的