安博体育永久网址【363050.com】

安博体育

安博体育

联系我们

电话:363050.com

手机:363050.com

邮箱:363050.com

地址:安博体育永久网址【363050.com】


安博电竞

野牛养生fun88体育官网_社安博体育 - 官方投注平台 足球·篮球·电竞一站式服务会新闻_大众网

  • 作者:小编
  • 发布时间:2025-06-05 05:12:44
  • 点击:

  安博,安博体育,安博体育app,安博官方网站,安博电竞,安博真人,安博棋牌,足球投注平台,安博体育注册,体育彩金,电竞下注平台

野牛养生fun88体育官网_社安博体育 - 官方体育投注平台 足球·篮球·电竞一站式服务会新闻_大众网

  本文作者来自通义实验室和北京大学,第一作者是北京大学智能学院博士生孙浩,主要研究方向是RAG和Agent,在 NeurIPS、ACL、EMNLP 等国际顶级会议上发表多篇论文,师从张岩教授。该工作在阿里巴巴通义实验室RAG团队实习期间完成。

  信息检索能力对提升大语言模型 (LLMs) 的推理表现至关重要,近期研究尝试引入强化学习 (RL) 框架激活 LLMs 主动搜集信息的能力,但现有方法在训练过程中面临两大核心挑战:

  文档质量不可控:真实搜索引擎返回内容不可控,训练过程易受噪声干扰。搜索 API 成本高昂:Rollout 阶段频繁调用搜索 API,训练成本极高。

  为了解决这些问题,我们提出了 ZeroSearch 框架 —— 无需真实搜索,直接用大语言模型模拟搜索引擎,并引入课程学习策略,在显著降低 88% 成本的同时,在多项任务上性能超过依赖真实搜索引擎的方法。

  传统训练方法需要在 Rollout 阶段频繁与真实搜索引擎交互,产生大量 API 开销,而大语言模型在预训练阶段积累了丰富的世界知识,具备根据 query 返回相关信息的能力,因此 ZeroSearch 创新性地引入大语言模型作为模拟搜索引擎(Simulation LLM),无需真实搜索,即可为策略模型生成检索文档,大幅降低了训练成本:

  为了避免策略模型记住由 Simulation LLM 生成的文档,我们对文档进行了损失屏蔽(Loss Masking),仅对策略模型自己生成的 token 进行损失计算。

  ZeroSearch 无需初始监督微调(SFT),直接对预训练语言模型进行强化学习训练,通过采用结构化的训练模板,引导模型在每一轮交互中划分思维步骤:

  对已有信息分析,明确下一步行动提炼搜索 query总结推理过程,形成最终答案

  这种结构化模板提升了模型推理路径的清晰度和可解释性,格式化的输出便于提取最终答案进行奖励计算。

  直接通过 Prompt 指导 LLM 生成的模拟检索内容,往往与真实搜索引擎返回的检索内容风格差异较大,且质量不稳定。为了解决这些问题,我们采用了模拟微调策略,具体包含以下三步:

  轨迹采集:从策略模型与真实搜索引擎的交互中采集 Query-Document 对质量评估:利用 Qwen-Max 作为评审,对文档进行有用性判别监督微调:构建高质量训练集,进行轻量级微调 (2 万条数据,7B 模型训练时间仅需 30 分钟)

  此外我们还在 Prompt 内引入原始问题的正确答案,从而扩充 Simulation LLM 的知识边界。

  经过微调的 Simulation LLM 可通过调整在 Prompt 中添加 Useful/Noisy 指令,灵活控制生成文档的质量。基于这一能力,我们进一步引入了课程学习策略,通过逐步降低文档质量,循序渐进地提升训练难度,从而更有效地激发模型的推理能力。

  为实现训练难度的平滑过渡,我们设计了一个指数函数来控制 Noisy 文档的生成概率:

  训练初期:训练难度上升缓慢,模型能够稳步学习基本的输出格式以及任务逻辑。训练后期,训练难度快速上升,从而促使模型不断强化其推理能力与鲁棒性。

  该由易到难的训练过程能够持续激发策略模型的推理能力,有效提升强化学习训练的稳定性与最终表现。

  在实验中,我们发现使用 Exact Match 作为奖励会诱导模型生成冗长内容以 “碰中” 答案,出现 Reward Hacking 问题,我们改用 F1 Score 作为奖励指标,更加关注输出的准确性与简洁性,有效抑制了冗余答案的产生。此外,我们发现模型在训练中即便不显式监督输出格式,也能生成结构规范的回答,因此没有引入格式奖励。

  ZeroSearch 超越所有基线方法,该性能优势在域内以及域外数据集上均得以体现,展示了我们方法的鲁棒性。ZeroSearch 的表现优于依赖真实搜索引擎的方法 Search-R1,凸显其在大规模强化学习中替代真实搜索引擎的潜力。ZeroSearch 展现了强大的泛化能力,随着模型参数量增加,其性能进一步提升,体现了良好的扩展性。

  ZeroSearch 与真实搜索的奖励趋势相似,随着训练的推进,ZeroSearch 和 Search-R1 的奖励分数都稳步上升。ZeroSearch 的奖励提升更加显著,虽然在训练初期 ZeroSearch 的奖励值低于 Search-R1,但它最终实现了超越,并且波动更小。ZeroSearch 在基础模型和指令微调模型中都展现了良好的泛化能力,在这两类模型下,ZeroSearch 的奖励表现都持续提升。

  相对于Base Model,不同类型的 Simulation LLM 均可有效激发策略模型的搜索能力。基于 Prompt 的方法效果较差,主要由于其生成的文档风格与真实搜索引擎差异较大,且质量不稳定,难以支撑稳定训练。经过微调的 Simulation LLM,即便仅有 3B 参数量,也能显著提升策略模型性能;随着模型规模扩大,性能进一步提升:SFT-7B 可达到与 Google 相当的效果,SFT-14B 甚至实现超越 Google 的性能。

  模型已适应数据集的跳数分布,交互策略逐步固化,在课程学习设定下,模型需提升推理能力以应对更低质量文档,从而维持较高奖励水平。

  实验结果表明,Curriculum(由易到难)训练策略显著优于 Random(随机难度)训练策略,验证了该训练范式在激发模型推理能力方面的有效性。与 Random 类似,真实搜索引擎在训练过程中难以控制文档难度,导致模型缺乏系统性的能力提升路径,从而限制了推理能力的持续进化。

  本文提出了 ZeroSearch,一种无需真实搜索引擎即可激活大语言模型搜索能力的强化学习框架,我们使用轻量级的监督微调将 LLM 转变为一个检索模块,在 RL 训练阶段,我们基于课程学习逐步降低检索模型生成文档的质量,通过不断提升检索难度,逐步激发策略模型推理能力。

  大量实验表明,ZeroSearch 使用 3B 参数规模的模型作为检索模块时即可激发语言模型检索能力,7B 模型的检索性能已接近线B 模型甚至实现了超越。此外,ZeroSearch 对基础模型和指令微调模型均具有良好的泛化能力,并可兼容多种 RL 算法,具备极强的适应性与可扩展性。

  第一,全体代表要从讲党性的高度,以饱满的政治热情、高度的责任感开好这次大会,高质量地完成大会各项议程。这次大会的议程和内容较多,们肩负着全乡和人民的重托,共商X乡党的建设和发展大计。因此,大家要清醒地认识自己肩负的责任,从讲党性的高度,把开好这次大会作为深入贯彻落实科学发展观和创先争优的具体表现,全力以赴开好大会。

  教育学生崇尚科学,上山扫墓祭祖倡导用植树、献鲜花、花篮、花圈等文明祭祀方式悼念逝者;上山扫墓不要有乱砍林木行为,扫墓后要带走所有的垃圾,不要遗留废弃物在山上,以免破坏生态环境。

  “小哥哥,我听祖爷爷说,庄中被买通的人只是跳梁小丑,外面的人才厉害,有恐怖级的绝顶强者。”旁边,那个脸色苍白的孩子说道。

  “这种凶禽最记仇,你们将它的卵盗走,它怎会善罢甘休,以后想出村子打猎都难了。”石飞蛟发愁。

  05月26日,【澜湄印象】相约火把节 和老挝留学生苏丽娜体验舞家美食文化,

  石云峰非常激动与高兴,再这样下去,也许用不了二十天,只需半个月小不点就会成功,到时就能进行洗礼。

  05月26日,习给中国科学院院士、清华大学教授姚期智的回信,企业开张典礼领导讲线篇),pg电子游戏app,bob娱乐体育线上平台,亚星官网平台登录。

  二是内容丰富,形式多样。 这次培训时间短暂,但是为了确保全体学员在课堂上学到尽量多的有益知识,在今后的工作实践中谋求更大的发展,我们安排了丰富的教学内容,教学内容涉及党的先进理论、涉农法律法规、村级党组织建设、党风廉政建设、社会治安、计划生育等知识领域。在教学方式上,坚持理论联系实际,坚持做到理论学习与业务辅导相结合,形式多样、内容丰富、由浅入深,确保了所有学员对各方面知识有较为全面的了解和掌握。

  新闻信息服务许可证音像制品出版许可证广播电视节目制作经营许可证网络视听许可证网络文化经营许可证