PG电子-PG电子平台-官方网站通义实验室、北大发布ZeroSearch无需搜索即可激活LLM检索能力
Pocket Games Soft 是世界一流的手机游戏开发商。[永久网址:wdhash.com]致力于在iOS,Android和HTML5平台上提供前所未有,身临其境的移动游戏解决方案,为提供玩家安全优质的pg电子,PG游戏试玩,PG电子官方网站,pg电子游戏,pg游戏,pg电子app,PG APP下载,pg电子平台,PG模拟器,pg娱乐,欢迎注册体验!通义实验室、北大发布ZeroSearch,无需搜索即可激活LLM检索能力
本文作者来自通义实验室和北京大学,第一作者是北京大学智能学院博士生孙浩,主要研究方向是RAG和Agent,在 NeurIPS、ACL、EMNLP 等国际顶级会议上发表多篇论文,师从张岩教授。该工作在阿里巴巴通义实验室RAG团队实习期间完成。
信息检索能力对提升大语言模型 (LLMs) 的推理表现至关重要,近期研究尝试引入强化学习 (RL) 框架激活 LLMs 主动搜集信息的能力,但现有方法在训练过程中面临两大核心挑战:
文档质量不可控:真实搜索引擎返回内容不可控,训练过程易受噪声干扰。搜索 API 成本高昂:Rollout 阶段频繁调用搜索 API,训练成本极高。
为了解决这些问题,我们提出了 ZeroSearch 框架 —— 无需真实搜索,直接用大语言模型模拟搜索引擎,并引入课程学习策略,在显著降低 88% 成本的同时,在多项任务上性能超过依赖真实搜索引擎的方法。
传统训练方法需要在 Rollout 阶段频繁与真实搜索引擎交互,产生大量 API 开销,而大语言模型在预训练阶段积累了丰富的世界知识,具备根据 query 返回相关信息的能力,因此 ZeroSearch 创新性地引入大语言模型作为模拟搜索引擎(Simulation LLM),无需真实搜索,即可为策略模型生成检索文档,大幅降低了训练成本:
为了避免策略模型记住由 Simulation LLM 生成的文档,我们对文档进行了损失屏蔽(Loss Masking),仅对策略模型自己生成的 token 进行损失计算。
ZeroSearch 无需初始监督微调(SFT),直接对预训练语言模型进行强化学习训练,通过采用结构化的训练模板,引导模型在每一轮交互中划分思维步骤:
对已有信息分析,明确下一步行动提炼搜索 query总结推理过程,形成最终答案
这种结构化模板提升了模型推理路径的清晰度和可解释性,格式化的输出便于提取最终答案进行奖励计算。
直接通过 Prompt 指导 LLM 生成的模拟检索内容,往往与真实搜索引擎返回的检索内容风格差异较大,且质量不稳定。为了解决这些问题,我们采用了模拟微调策略,具体包含以下三步:
轨迹采集:从策略模型与真实搜索引擎的交互中采集 Query-Document 对质量评估:利用 Qwen-Max 作为评审,对文档进行有用性判别监督微调:构建高质量训练集,进行轻量级微调 (2 万条数据,7B 模型训练时间仅需 30 分钟)
此外我们还在 Prompt 内引入原始问题的正确答案,从而扩充 Simulation LLM 的知识边界。