CVPR 2024:解决知识蒸馏分布偏移问题

重大阿大 2025-06-03 09:53:21

【论文标题】De-confounded Data-free Knowledge Distillation for Handling Distribution Shifts

【论文单位】复旦大学

【论文出处】CVPR 2024

【技术亮点】✨ 本研究提出了一种创新的知识蒸馏方法——知识蒸馏因果干预(KDCI),有效解决了无数据知识蒸馏(DFKD)中的分布偏移问题。

【工作原理】🔍 1. 利用因果推断,定制因果图,揭示DFKD任务变量间的因果关系。 2. 通过后门调整,实现对分布偏移的混杂因素进行干预,提高学生模型的学习质量。

【实验结果】📈 1. 在CIFAR-100数据集上,KDCI结合DeepInv方法,准确率提升15.54%。 2. 在Tiny-ImageNet数据集上,KDCI使Fast方法准确率从28.79%提升至38.23%,DeepInv从20.68%提升至34.84%,DFND从42.64%提升至49.54%。 3. 在ImageNet数据集上,KDCI结合Fast方法,resnet-50到resnet-18模型组合准确率提升4.79%。

【应用场景】🏢 1. 移动设备和数据隐私场景下,模型压缩和数据免费技术是关键。 2. KDCI框架可与现有的DFKD方法灵活结合,提高小模型在实际部署中的性能。

【结语】📝 KDCI为DFKD任务提供了一种有效的因果干预策略,显著提高了小模型在多种数据集上的性能,为模型压缩和数据隐私保护提供了新思路。

 

 

 

 

...全文
17 回复 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

50

社区成员

发帖
与我相关
我的任务
社区描述
本社区由重庆大学与云从科技联合发起并共同运营,旨在打造一个开放、前沿、务实的知识共享与交流平台。 我们聚焦于两大前沿技术领域:通用语言大模型 (LLM)与知识协同技术。
软件工程 个人社区 重庆·沙坪坝区
社区管理员
  • 重大阿大
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧