ACL'24 LLM in a flash: Efficient Large Language Model Inference with Limited Memory
社区首页 (3589)




请编写您的帖子内容
社区频道(7)
显示侧栏
卡片版式
全部
运营指南
问题求助
交流讨论
学习打卡
社区活动
活动专区

13
评分
回复


ICLR'25 Toolgen: Unified tool retrieval and calling via generation
目标:用大模型学习工具检索和执行,避免复杂的MCP定义和操作 https://arxiv.org/pdf/2410.03439 方法: 1. 将执行工具标注为一个token 2. 大模型学习生成概率:已知工具描述,生成token 3. 大模型学习检索
复制链接 扫一扫
分享
交流讨论

17
评分
回复


知识蒸馏目标检测新作!CVPR 24:CrossKD
论文标题】CrossKD: Cross-Head Knowledge Distillation for Object Detection 【论文单位】 南开大学 【论文出处】 CVPR 2024 【技术亮点】✨ CrossKD技术,一种新颖的目标检测
复制链接 扫一扫
分享
交流讨论

11
评分
回复


面对未知协变量偏移,AI知识蒸馏新突破!
📚 论文标题:Improving Knowledge Distillation Under Unknown Covariate Shift Through Confidence-Guided Data Augmentation 🔗 Arxiv I
复制链接 扫一扫
分享
学习打卡

14
评分
回复


人和生成式AI共创过程分析
学习-使用-评估 (LUA) 框架 该研究采用了学习-使用-评估 (LUA) 框架来分析人类与生成性人工智能 (GenAI) 的共创过程: * 学习:用户如何获得 GenAI 能力,包括理解概念、获取工具和开发相关技能。 * 使用:用户如何将 Gen
复制链接 扫一扫
分享
交流讨论

9
评分
回复


内部外部知识协同:高效自适应搜索代理新突破
📚 论文标题:Reinforced Internal-External Knowledge Synergistic Reasoning for Efficient Adaptive Search Agent 🔗 Arxiv ID:2505.075
复制链接 扫一扫
分享
学习打卡

17
评分
回复


CVPR 2024:解决知识蒸馏分布偏移问题
【论文标题】De-confounded Data-free Knowledge Distillation for Handling Distribution Shifts 【论文单位】复旦大学 【论文出处】CVPR 2024 【技术亮点】✨ 本研究提
复制链接 扫一扫
分享
交流讨论

10
评分
回复


CVPR 2024 知识蒸馏新突破!频率域FreeKD
【论文标题】FreeKD: Knowledge Distillation via Semantic Frequency Prompt 【论文出处】CVPR 2024 【技术亮点】✨ FreeKD是一种新颖的知识蒸馏方法,它通过语义频率提示(Seman
复制链接 扫一扫
分享
学习打卡

14
评分
回复


[ICLR‘25] STAMP 异构协同感知
[ICLR 2025] STAMP: Scalable Task- And Model-agnostic Heterogeneous Collaborative Perception 一个可扩展,与任务和模型无关的,异构协同感知框架 项目网站:htt
复制链接 扫一扫
分享
学习打卡

26
评分
回复


大模型与小模型协同的新机遇
《Towards Harnessing the Collaborative Power of Large and Small Models for Domain Tasks》 ⛽ 背景介绍: 大型语言模型(LLMs)虽然展现了卓越的能力,但需要大量的
复制链接 扫一扫
分享
交流讨论

18
评分
回复


JBR| AI与知识共享如何驱动组织创新与绩效
JBR| AI与知识共享如何驱动组织创新与绩效 1️⃣研究背景 过去十年人工智能推动了组织流程和绩效的革新。尽管AI技术提升了效率与生产力,但现有知识与新知识的整合不足,导致AI难以识别业务流程冗余并优化资源分配。组织在竞争、技术迭代和社会快速变化中
复制链接 扫一扫
分享
交流讨论

34
评分
回复


OpenAI大模型系列:GPT-2通用大语言模型
❗️介绍❗️ GPT-2于2019年2月发布,相较于GPT-1,GPT-2是一个泛化能力更强的语言模型,具有一定的通用性。GPT-2的通用性体现在可以应用到多种任务场景中,且不需要经过专门的训练。相较于GPT-1,GPT-2可以通过对大规模数据的预训
复制链接 扫一扫
分享
交流讨论


为您搜索到以下结果:
49
社区成员
14
社区内容





通用语言大模型及知识协同技术
本社区由重庆大学与云从科技联合发起并共同运营,旨在打造一个开放、前沿、务实的知识共享与交流平台。
我们聚焦于两大前沿技术领域:通用语言大模型 (LLM)与知识协同技术。
复制链接 扫一扫

确定
社区描述
本社区由重庆大学与云从科技联合发起并共同运营,旨在打造一个开放、前沿、务实的知识共享与交流平台。
我们聚焦于两大前沿技术领域:通用语言大模型 (LLM)与知识协同技术。 软件工程 个人社区 重庆·沙坪坝区
加入社区
获取链接或二维码
- 近7日
- 近30日
- 至今
加载中
社区公告
暂无公告