让大型语言模型充分利用上下文
社区首页 (3640)
请编写您的帖子内容
社区频道(7)
显示侧栏
卡片版式
全部
运营指南
问题求助
交流讨论
学习打卡
社区活动
活动专区
最新发布
最新回复
标题
阅读量
内容评分
精选

9
评分
回复
让大型语言模型充分利用上下文
论文标题:《Make Your LLM Fully Utilize the Context》 🧾 背景: 现代大型语言模型能处理很长的输入(4K–32K+ token),但常常忽略长上下文中间的信息——“中间丢失(lost-in-the-middl
复制链接 扫一扫
分享
交流讨论

13
评分
回复
《ExpeL:LLM 智能体是经验学习者》
论文标题:《ExpeL: LLM Agents Are Experiential Learners》 💡 背景: 大型语言模型(LLM)具备丰富的世界知识,利于决策类任务,但微调代价高且可能削弱泛化能力,且许多强模型为闭源;基于提示的代理(如 R
复制链接 扫一扫
分享
交流讨论

11
评分
回复
AgentGym-RL:通过多轮强化学习训练具备长时程决策能力的大语言模型智能体
论文标题:《AgentGym-RL: Training LLM Agents for Long-Horizon Decision Making through Multi-Turn Reinforcement Learning》 💡 背景。 论文讨
复制链接 扫一扫
分享
交流讨论

11
评分
回复
通过泛化增强大型语言模型的知识学习能力
论文标题:Enhancing LLM Knowledge Learning through Generalization 🧠 背景 大规模语言模型虽含大量事实性知识,但在整合不断演化的事实时不够可靠;此前工作发现持续预训练和对多重释义文本训练能提
复制链接 扫一扫
分享
交流讨论

17
评分
回复
MemoryBench:LLM记忆与持续学习评测
MemoryBench:LLM记忆与持续学习评测 清华THUIR实验室的论文《MemoryBench: A Benchmark for Memory and Continual Learning in LLM Systems》,提出一个新的评测框架
复制链接 扫一扫
分享
交流讨论

15
评分
回复
UIUC &英伟达:LLM三体协同让LLM自我进化
UIUC &英伟达:LLM三体协同让LLM自我进化 传统强化学习提升大语言模型(LLM)能力依赖人工标注数据和可验证奖励,成本高、通用性差。UIUC与NVIDIA团队提出的 Multi-Agent Evolve(MAE) 打破这一限制,让LLM在完全
复制链接 扫一扫
分享
学习打卡

18
评分
回复
on-policy数据抵御LLM遗忘
📖标题:Retaining by Doing: The Role of On-Policy Data in Mitigating Forgetting 🛎️文章简介 🔸研究问题:在语言模型的后训练过程中,如何通过不同的数据策略减轻灾难性遗忘?
复制链接 扫一扫
分享
交流讨论

19
评分
回复
CoCoA:多智能体知识协同
📚论文标题: Collaborative Chain-of-Agents for Parametric-Retrieved Knowledge Synergy 🔍 问题背景:传统RAG方法在处理参数化知识与检索知识的协同上存在局限,检索内容可能误
复制链接 扫一扫
分享
交流讨论

17
评分
回复
EMNLP25大语言模型融合知识图谱的问答综述
分享近日被EMMNLP25接收的题为“Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities”的综述文章,该文章探
复制链接 扫一扫
分享
学习打卡

37
评分
回复
每天学习一个AI知识:多智能体协同
在AI技术快速演进的今天,单一模型的能力边界已成为效率与创新的瓶颈。多智能体协同系统应运而生,它标志着人工智能从“工具时代”迈入“系统时代”,以团队协作的方式,重新定义复杂问题的解决路径。 1⃣️什么是多智能体协同? 简单来说,就是“让多个AI组队协
复制链接 扫一扫
分享
学习打卡

47
评分
回复
降低AIGC实操指南
降低论文的AIGC真的是一件很麻烦的事情,用AI写,用AI来判定,哪怕是100%人工写,也有可能被判定为AI,所以这个真的很难绷。 首先,我们要明确的一个概念就是怎么去查AIGC率,维普和知网这两个平台都可以查,但是现在有太多的假冒平台,打着维普和知
复制链接 扫一扫
分享
交流讨论

113
评分
回复
Arxiv'25 Distilling LLM Agent into Small Models with Retrieval and Code Tools
https://arxiv.org/pdf/2505.17612 背景:智能体就是大模型加提示词,其行为由提示词语义决定,其性能受大模型能力影响 问题:如何让基于大参数模型的智能体,指导基于小参数模型的智能体学习,逐步提升推理能力? 方法:智能体蒸馏
复制链接 扫一扫
分享
交流讨论

102
评分
1
ACL'24 LLM in a flash: Efficient Large Language Model Inference with Limited Memory
背景:Apple公司研究里大模型在手机端的推理加速问题 https://aclanthology.org/2024.acl-long.678.pdf 主要挑战:主存空间小,需要将大模型存放在闪存中,按需交换到主存中,但传输速度慢成为主要瓶颈 研究思路
复制链接 扫一扫
分享
交流讨论

85
评分
回复
ICLR'25 Toolgen: Unified tool retrieval and calling via generation
目标:用大模型学习工具检索和执行,避免复杂的MCP定义和操作 https://arxiv.org/pdf/2410.03439 方法: 1. 将执行工具标注为一个token 2. 大模型学习生成概率:已知工具描述,生成token 3. 大模型学习检索
复制链接 扫一扫
分享
交流讨论

101
评分
回复
知识蒸馏目标检测新作!CVPR 24:CrossKD
论文标题】CrossKD: Cross-Head Knowledge Distillation for Object Detection 【论文单位】 南开大学 【论文出处】 CVPR 2024 【技术亮点】✨ CrossKD技术,一种新颖的目标检测
复制链接 扫一扫
分享
交流讨论

79
评分
回复
面对未知协变量偏移,AI知识蒸馏新突破!
📚 论文标题:Improving Knowledge Distillation Under Unknown Covariate Shift Through Confidence-Guided Data Augmentation 🔗 Arxiv I
复制链接 扫一扫
分享
学习打卡

65
评分
回复
人和生成式AI共创过程分析
学习-使用-评估 (LUA) 框架 该研究采用了学习-使用-评估 (LUA) 框架来分析人类与生成性人工智能 (GenAI) 的共创过程: * 学习:用户如何获得 GenAI 能力,包括理解概念、获取工具和开发相关技能。 * 使用:用户如何将 Gen
复制链接 扫一扫
分享
交流讨论

73
评分
回复
内部外部知识协同:高效自适应搜索代理新突破
📚 论文标题:Reinforced Internal-External Knowledge Synergistic Reasoning for Efficient Adaptive Search Agent 🔗 Arxiv ID:2505.075
复制链接 扫一扫
分享
学习打卡

110
评分
回复
CVPR 2024:解决知识蒸馏分布偏移问题
【论文标题】De-confounded Data-free Knowledge Distillation for Handling Distribution Shifts 【论文单位】复旦大学 【论文出处】CVPR 2024 【技术亮点】✨ 本研究提
复制链接 扫一扫
分享
交流讨论

125
评分
回复
CVPR 2024 知识蒸馏新突破!频率域FreeKD
【论文标题】FreeKD: Knowledge Distillation via Semantic Frequency Prompt 【论文出处】CVPR 2024 【技术亮点】✨ FreeKD是一种新颖的知识蒸馏方法,它通过语义频率提示(Seman
复制链接 扫一扫
分享
学习打卡
为您搜索到以下结果:
83
社区成员
26
社区内容
发帖
与我相关
我的任务
通用语言大模型及知识协同技术
本社区由重庆大学与云从科技联合发起并共同运营,旨在打造一个开放、前沿、务实的知识共享与交流平台。
我们聚焦于两大前沿技术领域:通用语言大模型 (LLM)与知识协同技术。
复制链接 扫一扫
分享确定
社区描述
本社区由重庆大学与云从科技联合发起并共同运营,旨在打造一个开放、前沿、务实的知识共享与交流平台。
我们聚焦于两大前沿技术领域:通用语言大模型 (LLM)与知识协同技术。 软件工程 个人社区 重庆·沙坪坝区
加入社区
获取链接或二维码
- 近7日
- 近30日
- 至今
加载中
社区公告
暂无公告