2026/4/18 7:14:02
网站建设
项目流程
站长工具搜索,台州网站关键字优化详情,软件开发工程师职业分析,成都房地产走势本文介绍了微软亚院与上海交大联合提出的Rewrite-Retrieve-Read框架#xff0c;通过在传统RAG流程前增加查询重写步骤#xff0c;有效解决了原始输入与检索需求之间的鸿沟。实验证明#xff0c;query重写能显著提升开放域问答和多项选择问答任务的性能#xff0c;尤其对复杂…本文介绍了微软亚院与上海交大联合提出的Rewrite-Retrieve-Read框架通过在传统RAG流程前增加查询重写步骤有效解决了原始输入与检索需求之间的鸿沟。实验证明query重写能显著提升开放域问答和多项选择问答任务的性能尤其对复杂多跳问题和长尾知识检索效果显著。该框架提供了低成本、易落地的RAG优化方案无需大规模训练即可实现性能提升为黑箱大模型的检索增强提供了新思路。在检索增强生成RAG成为大模型事实性输出标配方案的今天大多数研究都在死磕检索器优化或阅读器调优却忽略了一个核心起点——检索查询本身。当原始输入与真实检索需求存在差距时再强的检索器也难召回有效信息。上一篇工作分享了2023 ACL的优化方案 HyDE这篇工作来继续分享经典query优化策略微软亚院与上海交通大学联合团队在2023 EMNLP提出的Rewrite-Retrieve-Read框架。通过在传统RAG流程前增加query重写步骤成功填补了输入文本与检索需求的鸿沟为黑箱大模型的检索增强提供了全新思路。论文地址https://arxiv.org/pdf/2305.14283 项目地址https://github.com/xbmxb/RAG-query-rewriting01 —为什么需要给query“整容”大语言模型虽强但存在两大致命问题幻觉生成和知识时效性滞后。检索增强RAG通过引入外部知识完美缓解了这两个问题成为知识密集型任务的标准解决方案。但传统的“检索-然后-阅读”Retrieve-then-Read框架存在明显短板检索查询要么直接使用原始输入要么由黑箱模型固定生成完全忽略了输入文本与真实检索需求的差距复杂问题如多跳问答直接作为查询时不仅无法补充有效知识还会引入冗余噪声黑箱大模型无法直接调优现有方法要么优化检索器要么设计复杂交互流程成本高且效果有限举个直观例子问“Lady Mary-Gaye Curzon最小的女儿与Douglas Smith共同出演的2017年电影是什么”直接用这个长句检索会让搜索引擎抓不住重点但如果重写为“2017年电影 Lady Mary-Gaye Curzon最小的女儿 Douglas Smith”检索效率会大幅提升。这正是该研究的核心洞察优化检索的起点query比优化后续环节更高效、更省资源。02 —核心框架Rewrite-Retrieve-Read三步法研究提出的全新框架在传统RAG流程前增加了query重写步骤形成“重写-检索-阅读”的闭环整体流程清晰明了Query Rewrite查询重写精准匹配检索需求基于原始输入 x 如开放域问答的问题、多项选择的“问题选项”生成更贴合检索需求的查询核心是提炼关键信息、优化表达逻辑避免原始输入冗余或歧义导致的检索偏差。基础方案无训练直接用大语言模型如ChatGPT作为冻结重写器通过“指令1-3个固定演示样例原始输入”的少样本提示引导生成查询输出可是0个无需检索、1个或多个搜索查询适配不同任务格式如HotPotQA需输出简短短语查询MMLU需针对“问题选项”优化查询。进阶方案可训练用预训练的T5-large7.7亿参数作为可训练重写器通过后续双阶段训练让重写器更适配下游冻结的检索器与阅读器。Retrieve检索高效获取高质量上下文用重写后的查询调用搜索引擎实验选用必应无需构建私有文档索引可覆盖实时、广泛的知识缓解固定数据库的“时间错位”问题同时通过两种方式处理检索结果平衡效率与质量片段拼接直接提取必应筛选的网页相关片段并拼接类似浏览器常规搜索的结果预览快速获取核心信息。URL解析BM25筛选解析网页完整文本后用BM25算法计算段落与查询的相关性保留高分段落减少冗余信息对后续阅读的干扰。Read阅读结合外部知识生成可靠输出将原始输入 x 与检索到的上下文文档 doc 结合输入冻结的大语言模型阅读器通过少样本提示完成阅读理解与结果预测最终输出如问答的答案、选择题的选项。阅读器选择实验选用ChatGPTgpt-3.5-turbo和Vicuna-13B均以黑箱冻结状态运行避免大模型参数调优的高成本。输入格式无检索增强时仅输入 x有检索增强时输入“重写查询”确保外部知识与任务需求精准结合。可训练重写器的双阶段训练让小模型精准适配流程完全依赖冻结的大语言模型存在“依赖人工提示、可能生成非最优查询”的问题为了更好地与冻结模块检索器和阅读器对齐研究设计“预热训练强化学习”双阶段用T5-large小模型承担重写任务既控成本又提性能第一阶段预热训练Warm-up——用高质量伪数据打基础核心是让T5-large先掌握“如何生成能让阅读器正确回答的查询”避免直接训练的盲目性构建伪数据集用大语言模型如ChatGPT对训练集中的原始输入 x 进行重写生成大量候选查询然后筛选出“用该查询检索后阅读器能输出正确答案”的样本组成预热数据集微调目标以“让T5-large生成的查询尽可能贴近伪数据中的优质查询”为目标用标准的对数似然损失训练让模型初步掌握重写逻辑。局限性此时重写器性能依赖伪数据质量若人工提示不佳生成的查询可能非最优和模型规模T5-large参数较小需后续强化学习进一步优化。第二阶段强化学习RL——对齐检索器与阅读器需求核心是让重写器“根据最终任务效果调整查询生成策略”以阅读器的反馈为导向优化采用PPO近端策略优化算法确保训练稳定任务建模把重写器的查询生成过程看作“马尔可夫决策过程”状态s_t当前已生成的查询片段原始输入动作a_t生成下一个查询token奖励R根据“查询检索效果阅读器回答效果”综合计算确保奖励与最终任务目标一致——比如包含“阅读器回答的精确匹配度EM、F1分数”衡量回答质量、“检索命中率”衡量检索到的文档是否含正确答案同时加入KL散度正则项防止重写器生成的查询与初始预热模型偏差过大避免训练失控。训练逻辑先固定一个“基准策略”预热后的重写器用于生成查询样本再用PPO算法更新模型参数每次更新都让新策略的查询生成效果更优奖励更高同时限制新策略与基准策略的差异保证训练过程平稳最终让重写器生成的查询既能精准检索到有效文档又能帮助阅读器输出正确答案。03 —实验验证多数据集持续提效实验在知识密集型任务的两大核心场景开放域问答、多项选择问答展开通过与传统RAG方案的对比不仅用数据验证了“重写-检索-阅读”框架的性能优势更揭示了query重写在算法优化中的关键作用——从“检索源头”解决信息匹配问题比后续环节调优更高效。关键实验结果性能提升背后的算法逻辑实验设置了“直接推理无检索”“传统Retrieve-then-Read”“LLM冻结重写器”“可训练重写器”四组对比结果显示query重写不仅能持续提效更能解决传统RAG的固有痛点其价值体现在三个核心维度1. 开放域问答破解复杂问题检索难题挽回传统RAG劣势在HotPotQA多跳推理、AmbigNQ消歧问答、PopQA长尾知识三个数据集上两种重写方案均实现性能突破尤其针对传统RAG的短板形成有效补充多跳问题痛点解决HotPotQA中传统RAG直接用多跳长句检索如“XX的女儿与XX共同出演的2017电影”因关键词分散、语义模糊引入大量噪声导致EM分数30.47%低于无检索的直接推理32.36%而加入query重写后冻结重写器将EM提升至32.80%可训练重写器进一步提升至34.38%F1达45.97%——这证明重写能将复杂问题拆解为“聚焦核心实体目标”的精准查询从源头避免噪声干扰。长尾知识与消歧任务提效AmbigNQ消歧问答中传统RAG的EM为45.80%可训练重写器将其提升至47.80%F1从58.50%升至60.71%PopQA长尾知识中可训练重写器EM达45.72%虽略低于LLM冻结重写器46.00%但已远超传统RAG43.20%——说明重写能强化长尾知识的关键词如低关注度人物、事件让检索器精准定位稀缺信息。2. 多项选择问答适配不同能力阅读器弱模型增益更显著在MMLU涵盖人文、STEM、社会科学等4大类任务中query重写的价值随阅读器能力变化呈现差异化优势印证了“算法适配性”的重要性强阅读器ChatGPT除社会科学类可能因领域知识高度依赖参数化记忆外其余三类均有提升——人文科学EM从75.6%直接推理升至77.0%LLM重写器STEM类从58.8%升至63.5%证明即使是强模型重写后的检索信息仍能补充参数化知识缺口。弱阅读器Vicuna-13B四大类别全部显著提效其中人文科学EM从39.8%升至43.2%“其他”类别从50.2%升至59.3%——核心原因是弱模型的参数化知识更薄弱重写带来的“高质量检索上下文”能更直接地填补缺口这也说明query重写是“低成本提升弱模型性能”的高效方案。3. 检索质量命中率提升印证“源头优化”价值检索是RAG的核心环节query重写对检索质量的提升是后续阅读性能优化的基础。在AmbigNQ数据集上的分析显示传统RAGBM25筛选的检索命中率仅76.4%而可训练重写器的命中率达82.2%LLM冻结重写器也达77.5%即使是简单的“片段拼接”方式重写方案的命中率63.5%也高于传统RAG61.1%。这一结果直接证明query重写的核心价值是“让检索器找对方向”——避免原始输入的歧义、冗余导致的“无效检索”从源头提升上下文文档的相关性为阅读器提供更可靠的外部知识支撑。典型案例效果直观看懂query重写的“优化魔法”实验数据背后是query重写对“输入-检索-输出”全流程的精准优化。通过三个典型案例可清晰看到重写如何解决实际问题其中Q0代表原始输入问题Q1为LLM冻结重写器生成的查询Q2为T5可训练重写器生成的查询多跳问题重写后聚焦核心人物与目标电影成功召回女演员Charlotte Calthorpe的参演作品《Beach Rats》关键词优化将“歌曲《All Star》出现在哪部2000年的电影中”重写为“2000 movie “All Star” song”避免歧义检索选择题简化冗余背景强化“社区规划者”核心角色快速定位“环境影响”相关答案这些案例与数据共同印证query重写不是“简单的文字改写”而是从算法源头优化“输入与检索需求匹配度”的关键环节——它让检索器“有的放矢”让阅读器“事半功倍”最终实现检索增强系统性能的高效提升尤其为黑箱大模型的RAG优化提供了低成本、易落地的全新思路。04 —企业落地启示对于企业私有数据RAG系统该研究提供了极具价值的实践思路低成本起步无需大规模训练直接用现有大模型如GPT-3.5/4、通义千问等作为冻结重写器通过少样本提示快速落地性价比极高数据约束突破针对私有数据难以收集训练样本的问题冻结重写器方案无需额外数据直接利用大模型的生成能力领域适配灵活可通过领域特定提示优化重写效果比如在医疗、法律等专业领域引导大模型提炼专业术语作为检索关键词资源高效利用小型可训练重写器7.7亿参数即可实现显著提效相比动辄百亿参数的大模型调优大大降低了计算成本对于从事RAG系统开发的工程师和研究者来说这篇论文的思路值得借鉴有时候解决复杂问题的关键不在于堆砌复杂模型而在于找准流程中的核心瓶颈——而query正是RAG流程中最值得优化的“第一公里”。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2025 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取