tensorflow中keep_prob的意思和用法??

Jacky_programming 2017-11-16 02:29:44
def compute_accuracy(v_xs,v_ys):
global prediction
y_pre = sess.run(prediction,feed_dict={xs:v_xs,keep_prob:1})
correct_prediction = tf.equal(tf.argmax(y_pre,1),tf.argmax(v_ys,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
result = sess.run(accuracy,feed_dict={xs:v_xs,ys:v_ys,keep_prob:1})
return result

这是CNN中的一段代码,但是不理解keep_prob的意思和用法,希望有人解答!
感激!
...全文
7179 2 打赏 收藏 转发到动态 举报
写回复
用AI写文章
2 条回复
切换为时间正序
请发表友善的回复…
发表回复
SandyLsnSmile 2018-10-11
  • 打赏
  • 举报
回复
官网上的解释是:keep_prob: A scalar Tensor with the same type as x. The probability that each element is kept.
意思是每个元素被保留的概率,那么 keep_prob:1就是所有元素全部保留的意思。
一般在大量数据训练时,为了防止过拟合,添加Dropout层,设置一个0~1之间的小数,
Gods_Dusk 2017-11-19
  • 打赏
  • 举报
回复
搜一下drop out 你就知道了

3,424

社区成员

发帖
与我相关
我的任务
社区描述
其他开发语言 其他开发语言
社区管理员
  • 其他开发语言社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧