求问大家有没有马老师这本书《High-Dimensional Data Analysis with Low-Dimensional Models:》的课后习题的答案呀。求求求~~~~
社区首页 (3473)
我加入的社区
我管理的社区
官方推荐社区
76
其他社区
3473
请编写您的帖子内容
社区频道(5)
显示侧栏
卡片版式
全部
学习资料
课件
博文收录
Ada助手
最新发布
最新回复
标题
阅读量
内容评分
精选
927
评分
回复
求问大家有没有马老师这本书《High-Dimensional Data Analysis with Low-Dimensional Models:》的课后习题的答案呀。求求求~~~~
求问大家有没有马老师这本书《High-Dimensional Data Analysis with Low-Dimensional Models:》的课后习题的答案呀。求求求~~~~
复制链接 扫一扫
分享
2380
5.0
2
对人工智能,乃至任何智能,起源的原理的观点和概论
转自http://t.c... - @毅马当闲的微博 - 微博 (weibo.com) 网页链接 这是我(和几位同事)对人工智能,乃至任何智能,起源的原理的观点和概论 -- 研究初始萌芽于十五年前,快速发展于过去五年,归纳总结于过去三个月。任何一个智
复制链接 扫一扫
分享
614
5.0
2
ICASSP的10小时短课程 (红包祝贺㊗️㊗️㊗️㊗️)
红包祝贺㊗️㊗️㊗️㊗️
复制链接 扫一扫
分享
694
评分
1
【短课程】CTRL: Closed-Loop Data Transcription via Rate Reduction
[图片]
复制链接 扫一扫
分享
874
评分
回复
马毅老师在 ICASSP 10 小时短课程资料
我们在ICASSP的10小时短课程slides上线了:https://highdimdata-lowdimmodels-tutorial.github.io 以后应该会重新录下视频,放在这个网站。有更新会再通知大家。 这可以看成是我的整本书、一学期的
复制链接 扫一扫
分享
基于第一性原理推导出的白盒子深度网络 ReduNet: A White-box Deep Network from the Principle of Maximizing Rate Reduction
747
评分
1
基于第一性原理推导出的白盒子深度网络 ReduNet: A White-box Deep Network from the Principle of Maximizing Rate Reduction
(从马毅老师的微博转载)基于第一性原理推导出的白盒子深度网络《ReduNet: A White-box Deep Network from the Principle of Maximizing Rate Reduction》一百多页的论文,终于在J
复制链接 扫一扫
分享
892
评分
1
中国国内希望订购我的新书原版的 ...
马老师的消息: https://weibo.com/3235040884/LnuueETbt?pagetype=profilefeed 剑桥出版社在国内的代理刚通知我:中国国内希望订购我的新书原版的可以通过京东中国图书进出口公司的网站预定:https
复制链接 扫一扫
分享
975
评分
3
稀疏低维结构与深度网络有本质的联系 - 学习的出发点,也是终点
马毅老师的发言 https://weibo.com/3235040884/Lltyxyq5p 人们很早就认识到稀疏低维结构与深度网络有本质的联系。Yann LeCun在深度网络大热之前就在研究用学习的方法寻找稀疏解,称为Learned ISTA(IS
复制链接 扫一扫
分享
1072
评分
1
AIR学术沙龙第4期|基于第一原理的深度(卷积)神经网络
AIR学术沙龙第4期|基于第一原理的深度(卷积)神经网络https://weibo.com/ttarticle/p/show?id=2309404641945686245745深度神经网络本身的层次结构其实就是在做迭代的优化,做数据压缩,逐层逐步优化数据特征的表达。 ——马毅 活动概况 5月27日上午,第四期AIR学术沙龙跨越太平洋,在清华大学智能产业研究院(AIR)图灵报告厅展开了一场精彩的隔空对话。本期活动荣幸地邀请到加利福尼亚大学伯克利分校电子工程与计算机科学系马毅教授线上做题为《基于第
复制链接 扫一扫
分享
【Lecture 23】Deep Generative Models: Closed-Loop Data Transcription via Minimaxing Rate Reduction.
[图片]
...全文
1262
评分
回复
【Lecture 23】Deep Generative Models: Closed-Loop Data Transcription via Minimaxing Rate Reduction.
[图片]
复制链接 扫一扫
分享
1640
评分
1
马毅老师的课程链接 - Berkeley EECS208
课程网站: https://pages.github.berkeley.edu/UCB-EECS208/course_site Piazza (讨论): https://piazza.com/berkeley/fall2021/eecs208
复制链接 扫一扫
分享
【Lecture 22】Deep Discriminative Models: White-Box Deep Convolution Networks from Rate Reduction.
[图片]
...全文
621
评分
回复
【Lecture 22】Deep Discriminative Models: White-Box Deep Convolution Networks from Rate Reduction.
[图片]
复制链接 扫一扫
分享
616
评分
回复
【Lecture 21】Deep Discriminative Models: The Principle of Maximal Coding Rate Reduction.
[图片]
复制链接 扫一扫
分享
590
评分
回复
【Lecture 20】Nonlinear Structured Models: Transform Invariant Low-Rank Texture.
[图片]
复制链接 扫一扫
分享
542
评分
回复
【Lecture 19】Nonlinear Structured Models: Sparsity in Convolution and Deconvolution.
[图片]
复制链接 扫一扫
分享
504
评分
回复
【Lecture 18】Nonconvex Optimization: Power Iteration and Fixed Point.
[图片]
复制链接 扫一扫
分享
523
评分
回复
【Lecture 17】Nonconvex Optimization: First Order Methods.
[图片]
复制链接 扫一扫
分享
509
评分
回复
【Lecture 16】Nonconvex Methods: Dictionary Learning via L4 Maximization.
[图片]
复制链接 扫一扫
分享
501
评分
回复
【Lecture 15】Nonconvex Formulations: Sparsifying Dictionary Learning.
[图片]
复制链接 扫一扫
分享
为您搜索到以下结果:
210
社区成员
37
社区内容
发帖
与我相关
我的任务
High-Dimensional DA
High-Dimensional DA
复制链接 扫一扫
分享
确定
社区描述
High-Dimensional DA
加入社区
获取链接或二维码
- 近7日
- 近30日
- 至今
加载中
社区公告
暂无公告