谷歌研究团队探索大规模模型预训练的局限性

OneFlow深度学习框架
企业官方账号
2021-10-15 11:04:57

#探索大规模模型预训练的局限性# #谷歌# 研究团队对大规模模型预训练的局限性进行了系统探索,包括对参数范围从1000万到100亿的Vision Transformers、#MLP-Mixers# 和#ResNets# 的模型做了4800次实验,在20多个下游图像识别任务上进行评估,旨在找到上游和下游任务之间性能的非线性关系。研究人员指出,缩放(scaling)并不会导致一个模型适合所有的解决方案,没有单一的预训练检查点可以在所有可能的下游任务上表现良好。相对于专注特定的下游任务,研究人员应该做出以提高广泛下游任务的性能的设计选择。论文:https://arxiv.org/abs/2110.02095

 

...全文
320 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

222

社区成员

发帖
与我相关
我的任务
社区描述
不止于成为世界上最快的开源深度学习框架
学习其他 企业社区
社区管理员
  • OneFlow深度学习框架
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧