社区
周昊的课程社区_NO_1
小白学习课程:梯度下降算法与公式详细推导
帖子详情
代码实战之θ参数更新
追梦Hocking
2023-01-13 01:55:03
课时名称
课时知识点
代码实战之θ参数更新
代码实战之θ参数更新
...全文
137
回复
打赏
收藏
代码实战之θ参数更新
课时名称课时知识点代码实战之θ参数更新代码实战之θ参数更新
复制链接
扫一扫
分享
转发到动态
举报
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
Logistic回归总结(非常好的机器学习总结资料)
看了Stanford的Andrew Ng老师的机器学习公开课中关于Logistic Regression的讲解,然后又看了《机器学习
实战
》中的LogisticRegression部分,写下此篇学习笔记总结一下。 首先说一下我的感受,《机器学习
实战
》一书在介绍原理的同时将全部的算法用源
代码
实现,非常具有操作性,可以加深对算法的理解,但是美中不足的是在原理上介绍的比较粗略,很多细节没有具体介绍。所以,对于没有基础的朋友(包括我)某些地方可能看的一头雾水,需要查阅相关资料进行了解。所以说,该书还是比较适合有基础的朋友。
【强化学习】PPO算法求解倒立摆问题 + Pytorch
代码
实战
Agent 必须在两个动作之间做出决定 - 向左或向右移动推车 - 以使连接到它的杆保持直立。近端策略优化 ( proximal policy optimization, PPO):避免在使用重要性采样时由于在
θ
\theta
θ
下的p
θ
(at∣st)p
θ
(at∣st)与在
θ
′
θ
′下的p
θ
′(at∣st)p
θ
′(at∣st)相差太多, 导致重要性采样结果偏差较大而采取的算法。
梯度下降
更新
:所有
参数
真的会一致变大或变小吗?(小白详解+误区破解)
梯度下降
更新
公式
θ
_new =
θ
_old - η * ∇L 看似让所有
参数
一致变化,实则每个
参数
是独立
更新
的。关键点在于梯度向量 ∇L 的各分量符号不同:正梯度会使
参数
减小,负梯度会使
参数
增大,零梯度则保持不变。本文通过数学拆解、生活比喻和PyTorch
代码
演示,说明
参数
更新
是"个性化调整"而非统一行动。这种独立性使模型能精细优化,如CNN中不同权重可能同时增大或减小。文章还澄清了常见误区,强调学习率仅控制步长而非方向,适合AI入门者理解梯度下降的核心机制。
霍夫直线检测
代码
实战
🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题 🍊往期回顾:霍夫直线检测原理详解 🍊近期目标:拥有2000粉丝 🍊支持小苏:点赞👍🏼、收藏⭐、留言📩 霍夫直线检测
代码
实战
上一节我们详细讲解了霍夫直线原理,想弄清楚霍夫直线检测原理的请前去阅读🚗🚗🚗这一节我们主要来进行
代码
实战
——对车道线进行检测。🏝🏝🏝 本节主要利用opencv中提供的2个函数进行检测,分别为HoughLines和HoughLinesP函数。这里给出opencv官网对两个
score-based generative models【公式推导+
代码
实战
】
这篇文章包含score-based generative models的公式推导以及对应的
代码
实战
,有助于全面的理解扩散模型和基于分数的生成模型。
周昊的课程社区_NO_1
1
社区成员
12
社区内容
发帖
与我相关
我的任务
周昊的课程社区_NO_1
复制链接
扫一扫
分享
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
暂无公告
试试用AI创作助手写篇文章吧
+ 用AI写文章