社区
Java
帖子详情
运用梯度算法 求解这个函数的最小值 拜托各位大神 不会做了
qq_40704187
2017-11-28 04:23:06
...全文
236
1
打赏
收藏
运用梯度算法 求解这个函数的最小值 拜托各位大神 不会做了
[图片]
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
1 条
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
kampoo
2017-11-29
打赏
举报
回复
假定把xi分为20个梯度,[x1,..., xn]就有20**n(20的n次方)个组合,这种最小值的直接求解是不可行的。 可以考虑贪心算法,或者动归算法,或者先做数学推导,然后求解。
香港中文大学凸优化讲义和作业
香港中文大学凸优化讲义(知乎
大神
推荐),内容非常详细深入(类似于逐字稿),值得新手和进阶的同学学习。
误差反向传播(BP)及
梯度
下降
算法
详解
摘要 在机器学习
算法
中,误差反向传播和
梯度
下降是模型收敛的关键技术,作者将以单隐层模型为例说明误差反向传播和
梯度
下降的工作原理。 各种
算法
的单隐层模型结构大同小异 正向传播 假设:主要模型参数有3个,输入层到隐含层的权重W,隐含层的偏置B,隐含层到输出层的权重beta,为了计算方便引入一个中间参数H表示隐含层的输出, 式(1) 其中G(x)为激活
函数
,为模型提供非线性...
逻辑斯蒂回归与
梯度
下降法
看了几位
大神
写的博客,对逻辑回归有了更深刻的理解,因此在这里简单记录一下自己的一些看法,当作笔记 1、逻辑回归 逻辑回归一般用于分类问题,而且多用于二分类问题,为什么逻辑回归要是分类方法却叫回归呢?我认为主要原因是因为逻辑回归首先建立了一个线性回归模型,然后又用的sigmoid
函数
将其转化成了二分类问题。对于分类问题,我的理解是损失
函数
一般为交叉熵,交叉熵的形式是 ...
反向传播
算法
为什么要“反向”
反向传播
算法
是深度学习的最重要的基础,这篇博客
不会
详细介绍这个
算法
的原理和细节。,如果想学习反向传播
算法
的原理和细节请移步到这本不错的资料。这里主要讨论反向传播
算法
中的一个小细节:反向传播
算法
为什么要“反向”? 背景 在机器学习中,很多
算法
最后都会转化为求一个目标损失
函数
(loss function)的
最小值
。这个损失
函数
往往很复杂,难以求出最值的解析表达式。而
梯度
下降法正是为了解决这类问题。直观地说一下这个方法的思想:我们把
求解
损失
函数
最小值
的过程看
做
“站在山坡某处去寻找山坡的最低点”。我们并不知道最
神经网络参数优化
算法
,神经网络损失
函数
设计
若果对你有帮助,请点赞。 神经网络的结构(例如2输入3隐节点1输出)建好后,一般就要求神经网络里的权值和阈值。现在一般
求解
权值和阈值,都是采用
梯度
下降之类的搜索
算法
(
梯度
下降法、牛顿法、列文伯格-马跨特法、狗腿法等等),这些
算法
会先初始化一个解,在这个解的基础上,确定一个搜索方向和一个移动步长(各种法算确定方向和步长的方法不同,也就使各种
算法
适用于解决不同的问题),使初始解根据这个方向和步长移动后,能使目标
函数
的输出(在神经网络中就是预测误差)下降。 然后将它更新为新的解,再继续寻找下一步的移动方向的步长,
Java
51,396
社区成员
85,837
社区内容
发帖
与我相关
我的任务
Java
Java相关技术讨论
复制链接
扫一扫
分享
社区描述
Java相关技术讨论
java
spring boot
spring cloud
技术论坛(原bbs)
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章