西瓜书研读——第六章 支持向量机 SVM(一)
社区首页 (3652)
请编写您的帖子内容
社区频道(9)
显示侧栏
卡片版式
全部
运营指南
问题求助
交流讨论
学习打卡
社区活动
博文收录
Ada助手
活动专区
最新发布
最新回复
标题
阅读量
内容评分
精选

158
评分
回复
西瓜书研读——第六章 支持向量机 SVM(一)
主要教材为西瓜书,结合南瓜书,统计学习方法,B站视频整理~力求以最朴素、最简洁的语言讲清算法原理原理讲解,公式推导,课后习题,实践代码应有尽有,欢迎订阅
复制链接 扫一扫
分享

168
评分
回复
西瓜书研读——第六章 支持向量机 SVM(二)对偶问题
主要教材为西瓜书,结合南瓜书,统计学习方法,B站视频整理~力求以最朴素、最简洁的语言讲清算法原理原理讲解,公式推导,课后习题,实践代码应有尽有,欢迎订阅
复制链接 扫一扫
分享

292
评分
1
【进行中】“1024 程序员节|用代码,改变世界” 主题征文开启,限定勋章&丰富周边大奖等你拿!快来投稿吧~
hello, 大家好! 我已申请成为今年“1024 程序员节|用代码,改变世界” 主题征文活动的领航员, 可以提供创作建议与指导,带大家一起完成创作。 CSDN 官方提供了1024 限定勋章 & 丰富周边大奖,欢迎大家报名参与! 参与方式: 报
复制链接 扫一扫
分享

128
评分
回复
机器学习基础:拉格朗日乘子法
在凸优化问题中,拉格朗日乘子法是最常用的方法之一。
复制链接 扫一扫
分享

171
评分
回复
西瓜书研读——第五章 神经网络:BP神经网络
主要教材为西瓜书,结合南瓜书,统计学习方法,B站视频整理~力求以最朴素、最简洁的语言讲清算法原理原理讲解,公式推导,课后习题,实践代码应有尽有,欢迎订阅
复制链接 扫一扫
分享

131
评分
回复
西瓜书研读——第三章 线性模型:线性几率回归(逻辑回归)
回归就是通过输入的属性值得到一个预测值,从而进行回归学习。那如何进行分类呢?只需找一个单调可微函数将分类任务的真实标记与线性回归模型的预测值联系起来。线性几率回归正是研究这样的问题。对数几率引入了一个**对数几率函数**(logistic function)**,将预测值投影到0-1之间,**从而将线性回归问题转化为二分类问题。
复制链接 扫一扫
分享

122
评分
回复
从入门到入土——足够你拿国奖的数学建模资料
刚清理文档发现自己整理了好多资料,删了挺可惜的,毕竟自己做建模拿的成绩全靠这些资料,就拿出来分享下吧!注意:分享的虽多,但勿贪多,自己好好消化一个算法,一个赛题,比囫囵吞枣看了所有的都要强!!!570G 不管是小白还是老s机,总有适合你的资料。数学建模的各种类型,建议实战为主主要包含内容:好多好多,上图为敬!!!
复制链接 扫一扫
分享

146
评分
回复
机器学习基础:概率论基础
机器学习必备基础知识,力求以最简洁的语言,描述最完整的内容。很多知识没有深入剖析,也没必要深入剖析。大致了解知识框架之后,即可开始学习机器学习,有不懂的再回过头再仔细研究,驱动式学习才是最高效的学习。
复制链接 扫一扫
分享

171
评分
回复
机器学习基础:随机变量及其概率分布
机器学习必备基础知识,力求以最简洁的语言,描述最完整的内容。很多知识没有深入剖析,也没必要深入剖析。大致了解知识框架之后,即可开始学习机器学习,有不懂的再回过头再仔细研究,驱动式学习才是最高效的学习。
复制链接 扫一扫
分享

167
评分
回复
机器学习基础:大数定律与中心极限定理
机器学习必备基础知识,力求以最简洁的语言,描述最完整的内容。很多知识没有深入剖析,也没必要深入剖析。大致了解知识框架之后,即可开始学习机器学习,有不懂的再回过头再仔细研究,驱动式学习才是最高效的学习。
复制链接 扫一扫
分享

126
评分
回复
机器学习基础:参数估计与假设检验
机器学习必备基础知识,力求以最简洁的语言,描述最完整的内容。很多知识没有深入剖析,也没必要深入剖析。大致了解知识框架之后,即可开始学习机器学习,有不懂的再回过头仔细研究,驱动式学习才是最高效的学习。
复制链接 扫一扫
分享

159
评分
回复
机器学习基础:统计量与抽样分布
机器学习必备基础知识,力求以最简洁的语言,描述最完整的内容。很多知识没有深入剖析,也没必要深入剖析。大致了解知识框架之后,即可开始学习机器学习,有不懂的再回过头仔细研究,驱动式学习才是最高效的学习。
复制链接 扫一扫
分享

155
评分
回复
西瓜书研读——第三章 线性模型: 线性判别分析 LDA
- **主要教材为西瓜书,结合南瓜书,统计学习方法,B站视频整理~**- **人群定位:学过高数会求偏导、线代会矩阵运算、概率论知道啥是概率**- **原理讲解,公式推导,课后习题,实践代码应有尽有,欢迎订阅**
复制链接 扫一扫
分享

181
评分
回复
机器学习基础:梯度下降
一般来说其步长的选择比梯度下降法的步长要小一点,因为梯度下降法使用的 是准确梯度,所以它可以朝着全局最优解(当问题为凸问题时)较大幅度的迭代下去,但是随机梯度法不行,因为它使用的是 近似梯度,或者对于全局来说有时候它走的也许根本不是梯度下降的方向,故而它走的比较缓,同样这样带来的好处就是相比于梯度下降法,它不是那么容易陷入到局部最优解中去。凸函数的局部极小值就是全局最小值,而非凸函数没有很好的解决最小值的方法,所以我们定义损失函数时尽量将其定义为凸优化问题或转换为等价凸优化问题,从而有助于求解。
复制链接 扫一扫
分享

122
评分
回复
机器学习基础:信息论
香农的信息熵本质上是对我们司空见惯的“不确定现象”的数学化度量。
复制链接 扫一扫
分享

114
评分
回复
西瓜书研读——第三章 线性模型:多元线性回归
主要教材为西瓜书,结合南瓜书,统计学习方法,B站视频整理~人群定位:学过高数会求偏导、线代会矩阵运算、概率论知道啥是随机变量原理讲解,公式推导,课后习题,实践代码应有尽有,欢迎订阅。
复制链接 扫一扫
分享

147
评分
回复
西瓜书研读——第三章 线性模型:一元线性回归
结合西瓜书,南瓜书,统计学习方法,B站视频课整理~原理讲解,公式推导,课后习题,代码实践应有尽有,欢迎订阅。
复制链接 扫一扫
分享

123
评分
回复
个人社区|必读运营指南
https://bbs.csdn.net/topics/606873890
复制链接 扫一扫
分享

144
评分
回复
帮助文档|教你玩转社区管理后台
https://bbs.csdn.net/topics/604167112
复制链接 扫一扫
分享
为您搜索到以下结果: