69
社区成员




Part1 论文阅读与视频学习:
ResNet。阅读论文 Deep Residual Learning for Image Recognition,CVPR2016 同时学习下面视频
ResNeXt。阅读论文 Aggregated Residual Transformations for Deep Neural Networks, CVPR 2017 同时学习下面视频
Part2 代码作业:
AI研习社 “猫狗大战” 比赛(https://god.yanxishe.com/8),大家在学习完 LeNet 以后,可以用类似 LetNet 的网络结构参加这个比赛,结果上传以后会有实时得分。 在此基础上,应用 ResNet,看看效果有什么区别。
本周大家需要写一个博客总结,最后列出不明白的问题,并附加自己的感想,把AI研习社的竞赛代码分析,以及准确率结果截图写到博客里。博客链接在下面提交任务即可,时间截止为下周三(7月27日22:00)。
初步计划下周四(7月28日)下午在线讨论,腾讯会议:532-6614-5074
本周的思考题:
1、Residual learning
2、Batch Normailization 的原理
3、为什么分组卷积可以提升准确率?即然分组卷积可以提升准确率,同时还能降低计算量,分数数量尽量多不行吗?
附加思考题:有余力的同学可以学习程明明老师的 Res2Net,体会里面是如何利用分组卷积降低计算量,同时提升网络性能的。感兴趣的同学可以学习一下 Vision Transformer 里的 attention,比较 multi-head 和 分组卷积的区别与联系。