网站空间免费可以看帖子的网站
2026/4/18 10:13:10 网站建设 项目流程
网站空间免费,可以看帖子的网站,sae wordpress 3.9,电商商城app制作开发本文探讨从Prompt Engineering到Context Engineering的演进#xff0c;分析Context Engineering在大模型应用中的核心地位。介绍了RAG技术、向量数据库选型、上下文优化策略等关键技术#xff0c;以及如何构建可靠的AI智能体系统。Context Engineering是连接大模型与实际应用…本文探讨从Prompt Engineering到Context Engineering的演进分析Context Engineering在大模型应用中的核心地位。介绍了RAG技术、向量数据库选型、上下文优化策略等关键技术以及如何构建可靠的AI智能体系统。Context Engineering是连接大模型与实际应用的桥梁是构建可扩展、高可靠性AI系统的关键。一、背景在观察去年以来对于“Prompt Engineering”的解构时我们可以观察到一个微妙但重要的分歧。一方面专注于构建可扩展系统的前沿实践者们如 Andrej Karpathy 等积极倡导用 “Context Engineering” 来描述工作认为 “Prompt Engineering” 这个词不足以涵盖复杂性认为它只是 “Coming up with a laughably pretentious name for typing in the chat box给在聊天框里打字起的一个可笑的自命不凡的名字” 。因为他们构建 Agent 系统的核心挑战并非仅仅是 Prompt而是设计整个数据流以动态生成最终提示的架构。另一方面近年来学术和正式文献倾向用 “Prompt Engineering” 作为一个广义的 umbrella term伞形术语其定义包括了 “Supporting content” 或 “Context”把所有在不改变模型权重的前提下操纵模型输入的技术归为同一类型。术语上的分歧可以反映该领域的成熟过程随着 AI 应用从简单的单次交互发展到复杂的、有状态的智能体系统优化静态指令已经无法满足需求。因此“Context Engineering” 的出现是为了区分两种不同层次的活动一是编写指令的 skill二是构建自动化系统以为该指令提供成功所需信息的科学。本文明确尽管在学术上 Prompt Engineering 可能涵盖上下文但在工程实践中Context Engineering 是专注于如何动态构建和管理上下文的专门学科二、重新定义 Agent 数据流Context is All You Need本部分旨在建立 Prompt Engineering 与 Context Engineering 的基础概念清晰地界定二者之间的区别与联系。从前者到后者的转变代表了人工智能应用开发领域一次关键的演进——从业界最初关注的战术性指令构建转向由可扩展、高可靠性系统需求驱动的战略性架构设计。Prompt Engineering - the Art of InstructionsPrompt Engineering 是与大型语言模型LLM交互的基础其核心在于精心设计输入内容以引导模型生成期望的输出。这一实践为理解 Context Engineering 的必要性提供了基准。定义一个提示Prompt远不止一个简单的问题它是一个结构化的输入可包含多个组成部分 。这些组件共同构成了与模型沟通的完整指令指令Instructions对模型的核心任务指令明确告知模型需要执行什么操作 。主要内容/输入数据Primary Content/Input Data模型需要处理的文本或数据是分析、转换或生成任务的对象 。示例Examples/Shots演示期望的输入-输出行为为模型提供“上下文学习”In-Context Learning的基础 。线索/输出指示器Cues/Output Indicators启动模型输出的引导性词语或对输出格式如JSON、Markdown的明确要求 。支持性内容Supporting Content/Context为模型提供的额外背景信息帮助其更好地理解任务情境。正是这一组件构成了 Context Engineering 发展的概念萌芽。Prompt Engineering 的核心技术Prompt Engineer 使用一系列技术来优化模型输出这些技术可按复杂性进行分类零样本提示Zero-Shot Prompting 在不提供任何示例的情况下直接向模型下达任务完全依赖其在预训练阶段获得的知识和推理能力。少样本提示Few-Shot Prompting 在提示中提供少量通常为 1 到 5 个高质量的示例以引导模型的行为。对于复杂任务这种“上下文学习”方法被证明极为有效。思维链提示Chain-of-Thought Prompting, CoT 引导模型将复杂问题分解为一系列中间推理步骤显著增强了其在逻辑、数学和推理任务上的表现。高级推理技术 在 CoT 的基础上研究人员还开发了更为复杂的变体如思维树Tree-of-Thought、苏格拉底式提示Maieutic Prompting和由简到繁提示Least-to-Most Prompting以探索更多样化的解决方案路径。以提示为中心的方法的局限性尽管 Prompt Engineering 至关重要但对于构建稳健、可用于生产环境的系统而言它存在固有的局限性脆弱性不可复现性 提示中微小的措辞变化可能导致输出结果的巨大差异使得这一过程更像是一种依赖反复试错的“艺术”而非可复现的“科学”。扩展性差 手动、迭代地优化提示的过程在面对大量用户、多样化用例和不断出现的边缘情况时难以有效扩展。用户负担 这种方法将精心构建一套详尽指令的负担完全压在了用户身上对于需要自主运行、或处理高并发请求的系统而言是不切实际的。无状态性 Prompt Engineering 本质上是为单轮、“一次性”的交互而设计的难以处理需要记忆和状态管理的长对话或多步骤任务。Context Engineering 兴起范式的转移Context Engineering 并非要取代 Prompt Engineering而是一个更高阶、更侧重于系统设计的必要学科。定义 Context EngineeringContext Engineering 是一门设计、构建并优化动态自动化系统的学科旨在为大型语言模型在正确的时间、以正确的格式提供正确的信息和工具从而可靠、可扩展地完成复杂任务。prompt 告诉模型如何思考而 Context 则赋予模型完成工作所需的知识和工具。“Context”的范畴“Context”的定义已远超用户单次的即时提示它涵盖了 LLM 在做出响应前所能看到的所有信息生态系统系统级指令和角色设定。对话历史短期记忆。持久化的用户偏好和事实长期记忆。动态检索的外部数据例如来自RAG。可用的工具API、函数及其定义。期望的输出格式例如JSON Schema。对比分析关系超集而非对抗、竞争Prompt Engineering 是 Context Engineering 的一个子集。Context Engineering 决定用什么内容填充 Context WindowPrompt Engineering 则负责优化窗口内的具体指令。Prompt Engineering vs. Context Engineering三、Context Engineering 的基石RAG本部分将阐述检索增强生成RAG作为实现 Context Engineering 的主要架构模式。从“是什么”转向“如何做”详细介绍RAG系统的组件和演进。Retrieval-Augmented Generation为何 RAG 不仅是一种技术更是现代 Context Engineering 系统的基础架构解决 LLM 的核心弱点RAG 直接解决了标准 LLM 在企业应用中存在的固有局限性知识冻结LLM 的知识被冻结在其训练数据的时间点。RAG 通过在推理时注入实时的、最新的信息来解决这个问题。缺乏领域专有知识标准 LLM 无法访问组织的内部私有数据。RAG 则能够将 LLM 连接到这些内部知识库如技术手册、政策文件等。幻觉HallucinationLLM 会不同程度上地编造事实。RAG 通过将模型的回答“锚定”在可验证的、检索到的证据上提高事实的准确性和可信度。RAG 工作流RAG 的实现通常分为两个主要阶段索引离线阶段在这个阶段系统会处理外部知识源。文档被加载、分割成更小的 chunks然后通过 Embedding Model 转换为向量表示并最终存储在专门的向量数据库中以备检索。推理在线阶段当用户提出请求时系统执行以下步骤检索Retrieve将用户的查询同样转换为向量然后在向量数据库中进行相似性搜索找出与查询最相关的文档块。增强Augment将检索到的这些文档块与原始的用户查询、系统指令等结合起来构建一个内容丰富的、增强的最终提示。生成Generate将这个增强后的提示输入给 LLMLLM 会基于提供的上下文生成一个有理有据的回答。RAG 架构分类Naive RAG即上文描述的基础实现。它适用于简单的问答场景但在检索质量和上下文处理方面存在局限。Advanced RAG这种范式在检索前后引入了处理步骤以提升质量。许多第三部分将详述的技术都属于这一范畴。关键策略包括检索前处理采用更复杂的文本分块策略、查询转换如 StepBack-prompting等优化检索输入。检索后处理对检索到的文档进行 Re-ranking 以提升相关性并对上下文进行 Compression。Modular RAG一种更灵活、更面向系统的 RAG 视图其中不同的组件如搜索、检索、记忆、路由被视为可互换的模块。这使得构建更复杂、更定制化的流程成为可能。具体模式包括带记忆的 RAG融合对话历史以处理多轮交互使对话更具连续性。分支/路由 RAG引入一个路由模块根据查询的意图决定使用哪个数据源或检索器。Corrective RAG, CRAG增加了一个自我反思步骤。一个轻量级的评估器会对检索到的文档质量进行打分。如果文档不相关系统会触发替代的检索策略如网络搜索来增强或替换初始结果。Self-RAG让 LLM 自身学习判断何时需要检索以及检索什么内容通过生成特殊的检索 Token 来自主触发检索。Agentic RAG这是 RAG 最先进的形式将 RAG 集成到一个智能体循环agentic loop中。模型能够执行多步骤任务主动与多个数据源和工具交互并随时间推移综合信息。这是 Context Engineering 在实践中的顶峰。向量数据库的角色本节将分析支撑 RAG 中“检索”步骤的关键基础设施并比较市场上的主流解决方案。Context Stack一个新兴的 abstract layer观察 RAG 系统的构成—— 数据摄入、分块、嵌入、用于索引和检索的向量数据库、重排序器、压缩器以及最终的 LLM ——可以发现这些组件并非随意组合而是形成了一个连贯的、多层次的架构。这可以被抽象地称为 Context Stack。这个堆栈的数据流非常清晰在离线索引阶段数据从原始文档流向分块、嵌入最终存入向量数据库 。在在线推理阶段数据流从用户查询开始经过嵌入、向量搜索、重排序、压缩最终形成送入 LLM 的提示。这个堆栈的出现标志着 AI 应用开发正在走向成熟不同的技术供应商开始专注于 Stack 中的特定层面Pinecone、Weaviate 和 Milvus 等公司在做 Database layerLangChain 和 LlamaIndex 等框架提供了将所有组件粘合在一起的 Application Orchestration Layer而 Cohere 和 Jina AI 等提供了专业的 Re-ranking as a ServiceRaaS模块。因此理解新的 AI Agent 架构就意味着理解 Context Engineering就意味着要理解这个新兴的 Context Stack了解其各个层次以及在每个层次上不同组件之间的权衡。这种视角将讨论从一系列孤立的技术提升到系统设计和技术选型的高度对工程师和架构师而言具有更高的价值。选型关键考量因素组织在选择向量数据库时必须考虑以下主要因素模型选择完全托管的云服务如 Pinecone还是可自托管的开源方案如 Milvus、Weaviate。扩展性是否能处理数十亿级别的向量数据和高查询负载Milvus。功能集 是否支持混合搜索关键词向量、高级 meta 过滤以及多模态数据处理Weaviate。易用性与灵活性是倾向于API简单、设置最少的方案Pinecone还是需要多种索引算法和深度配置选项的方案Milvus 。为了给技术选型提供一个实用的决策框架下表对几个主流的向量数据库进行了比较。主流 RAG 向量数据库对比分析四、Context 工程化的核心概念和目标从原始数据到相关分块本节聚焦于从知识库中识别和检索最有价值信息的初始阶段。高级分块策略文本分块Chunking是 RAG 流程中最关键也最容易被忽视的一步。其目标是创建在语义上自成一体的文本块。朴素分块的问题固定大小的分块方法虽然简单但常常会粗暴地切断句子或段落导致上下文支离破碎语义不完整。内容感知分块递归字符分割一种更智能的方法它会按照一个预设的分割符层次结构如先按段落再按句子最后按单词进行分割以尽可能保持文本的自然结构。文档特定分块利用文档自身的结构进行分割例如根据 Markdown 的标题、代码文件的函数或法律合同的条款来划分。语言学分块使用 NLTK、spaCy 等自然语言处理库基于句子、名词短语或动词短语等语法边界进行分割。语义分块 这是最先进的方法之一。它使用嵌入模型来检测文本中语义的转变点。当文本的主题或意义发生变化时就在该处进行分割从而确保每个分块在主题上是高度内聚的。研究表明这种策略的性能优于其他方法。智能体分块一个前沿概念即利用一个 LLM 智能体来决定如何对文本进行分块例如通过将文本分解为一系列独立的 propositions 来实现。通过重排序提升精度为了平衡检索的速度和准确性业界普遍采用两阶段检索流程。两阶段流程第一阶段召回 使用一个快速、高效的检索器如基于 bi-encoder 的向量搜索或 BM25 等词法搜索进行广泛撒网召回一个较大的候选文档集例如前 100 个。第二阶段精排/重排序 使用一个更强大但计算成本更高的模型对这个较小的候选集进行重新评估以识别出最相关的少数几个文档例如前 5 个。Cross-Encoder 交叉编码器之所以在重排序阶段表现优越是因为它与双编码器的工作方式不同。双编码器独立地为查询和文档生成嵌入向量然后计算它们的相似度。而交叉编码器则是将查询和文档同时作为输入让模型在内部通过 Attention Mechanism 对二者进行深度交互。这使得模型能够捕捉到更细微的语义关系从而给出更准确的相关性评分。实际影响 重排序显著提高了最终送入 LLM 的上下文质量从而产出更准确、幻觉更少的答案。在金融、法律等高风险领域重排序被认为是必不可少而非可选的步骤。核心问题 - Lost in the Middlehttps://arxiv.org/abs/2307.03172 Lost in the Middle: How Language Models Use Long Contexts当前 LLM 存在一个根本性认知局限这一局限使得简单的上下文堆砌变得无效并催生了后续的优化技术。定义LLM 在处理长上下文时表现出一种独特的 U 型 性能曲线。当关键信息位于上下文窗口的开头首因效应或结尾近因效应时模型能够高效地利用这些信息。然而当关键信息被 “hidden”在长篇上下文的中间位置时模型的性能会显著下降。实验 在多文档问答任务时即使检索器召回了更多相关的文档模型的性能提升也很快达到饱和。这意味着简单地增加上下文长度即添加更多文档不仅无益甚至因为关键信息被淹没而损害性能 。“知道但说不出来” 并非模型“找不到”信息。通过探测模型的内部表征发现模型通常能够准确地编码关键信息的位置但在生成最终答案时却未能有效利用这些信息。这表明在模型内部信息检索和信息利用或沟通之间存在脱节。上下文丰富性与窗口局限性之间的考量Context Engineering 的核心存在一个根本性的矛盾。一方面提供丰富、全面的上下文是获得高质量响应的关键。另一方面LLM 的上下文窗口是有限的并且由于 Lost in the Middle、contextual distraction 等问题过长的上下文反而会导致性能下降。一个朴素的想法是尽可能多地将相关信息塞进上下文窗口。然而研究和实践都证明这是适得其反的。LLM 会被无关信息淹没、分心或者干脆忽略那些不在窗口两端的信息。这就产生了一个核心的优化问题如何在固定的 Token 预算内最大化“信号”真正相关的信息同时最小化“噪声”不相关或分散注意力的信息并充分考虑到模型存在的认知偏差这个考量是 Context Engineering 领域创新的主要驱动力。所有的高级技术——无论是语义分块、重排序还是后续将讨论的压缩、摘要和智能体隔离——都是为了有效管理这一权衡而设计的。因此Context Engineering 不仅是关于提供上下文更是关于如何策划和塑造上下文使其对一个认知能力有限的处理单元LLM最为有效。优化上下文窗口压缩与摘要本节详细介绍用于主动管理上下文的技术确保最有价值的信息被优先呈现。上下文压缩的目标缩短检索到的文档列表和/或精简单个文档的内容只将最相关的信息传递给LLM。这能有效降低API调用成本、减少延迟并缓解 Lost in the Middle 的问题 。压缩方法过滤式压缩 这类方法决定是保留还是丢弃整个检索到的文档。LLMChainFilter利用一个 LLM 对每个文档的相关性做出简单的“是/否”判断。EmbeddingsFilter更经济快速的方法根据文档嵌入与查询嵌入的余弦相似度来过滤文档。内容提取式压缩这类方法会直接修改文档内容。LLMChainExtractor遍历每个文档并使用 LLM 从中提取仅与查询相关的句子或陈述 。用 top N 代替压缩像 LLMListwiseRerank 这样的技术使用 LLM 对检索到的文档进行重排序并只返回排名最高的 N 个从而起到高质量过滤器的作用。作为压缩策略的摘要对于非常长的文档或冗长的对话历史可以利用 LLM 生成摘要。这些摘要随后被注入上下文既保留了关键信息又大幅减少了 Token 数量。这是在长时程运行的智能体中管理上下文的关键技术。智能体系统的上下文管理从 HITL 到 SITLPrompt Engineering 本质上是一个手动的、Human-in-the-Loop 的试错过程。而 Context Engineering尤其是在其智能体形式中则是关于构建一个自动化的 System-in-the-Loop这个系统在LLM看到提示之前就为其准备好上下文。一个人类提示工程师需要手动收集信息、组织语言并进行测试。而一个 Context Engineering 化的系统则将此过程自动化RAG 流程本身就是一个自动收集信息的系统路由器是一个自动决定收集哪些信息的系统记忆模块是一个自动持久化和检索历史信息的系统。正是这种自动化使得 AI 系统能够变得“智能体化”Agentic——即能够在没有人类为每一步微观管理上下文的情况下进行自主的、多步骤的推理 。因此Context Engineering 的目标是构建一个可靠、可重复的上下文组装机器。这台机器取代了提示工程师的临时性、手工劳动从而使创建真正自主和可扩展的 AI 智能体成为可能。焦点从单个提示的“技艺”转向了生成该提示的“系统工程”。智能体上下文管理框架LangChain 博客中提出的四个关键策略 Write - 持久化上下文Scratchpads供智能体在执行复杂任务时使用的临时、会话内记忆用于记录中间步骤。Memory长期、持久化的存储记录关键事实、用户偏好或对话摘要可在不同会话间调用。Select - 检索上下文根据当前的子任务使用 RAG 技术动态地从记忆、工具库或知识库中选择相关上下文。这甚至包括对工具描述本身应用 RAG以避免向智能体提供过多无关的工具选项。Compress - 优化上下文利用摘要或修剪技术来管理智能体在长时程任务中不断增长的上下文防止上下文窗口溢出和“ Lost in the Middle ”问题。Isolate - 分割上下文多智能体系统 将一个复杂问题分解并将子任务分配给专门的子智能体每个子智能体都拥有自己独立的、更聚焦的上下文窗口。沙盒环境 在一个隔离的环境中执行工具调用只将必要的执行结果返回给 LLM从而将包含大量 Token 的复杂对象隔离在主上下文窗口之外。五、多智能体架构中的 Context 数据流与工作流编排LLM 正在从被动地响应用户查询的“响应者”演变为能够自主规划、决策并执行多步骤复杂任务的“执行者”——即我们所说的“智能体”AI Agent。当一个智能体不再是简单地“输入-输出”而是需要调用工具、访问数据库、与用户进行多轮交互时其内部的数据是如何流动和管理的如何进行技术选型工作流Workflow vs. 智能体Agent在深入技术细节之前建立一个清晰的概念框架至关重要。业界如 Anthropic倾向于对“智能体系统”进行两种架构上的区分。工作流Workflows指的是 LLM 和工具通过预定义的代码路径进行编排的系统。在这种模式下数据流动的路径是固定的、由开发者明确设计的类似于上世纪流行的“专家系统”。例如“第一步分析用户邮件第二步根据分析结果在日历中查找空闲时段第三步起草会议邀请邮件”。这种模式确定性高易于调试和控制非常适合有明确业务流程的场景如风控需求高、数据敏感、安全等级要求。智能体Agents指的是 LLM 动态地指导自己的流程和工具使用自主控制如何完成任务的系统。在这种模式下数据流动的路径不是预先固定的而是由LLM在每一步根据当前情况和目标动态决定的。这种模式灵活性高能处理开放式问题但可控性和可预测性较低。复杂的智能体通常是这两种模式的混合体在宏观层面遵循一个预定义的工作流但在某些节点内部又赋予 LLM 一定的自主决策权。管理这一切的核心我们称之为编排层Orchestration Layer。多 Agent 编排的核心架构预定义数据流的实现为了实现可靠、可控的数据流动开发者们已经探索出几种成熟的架构模式。这些模式可以单独使用也可以组合成更复杂的系统。链式工作流Prompt ChainingGPT-3.5 时期的工作原理数据流 输入 - 模块 A - 输出 A - 模块 B - 输出 B -… - 最终输出工作原理 每个模块LLM 调用只负责一个定义明确的子任务。路由工作流Routingo3 的早期工作原理数据流 输入 - 路由器选择 - 输出工作原理 一个充当“路由器”的 LLM 调用其唯一任务就是决策。它会分析输入数据然后输出一个指令告诉编排系统接下来应该调用哪个具体的业务模块。实现方式 LangGraph 使用 Conditional Edges 来实现这种逻辑即一个节点的输出决定了图的下一跳走向何方。编排器-工作者模式Orchestrator-Workers对于极其复杂的任务可以采用多智能体Multi-agent架构也称为 Orchestrator-Workers 模式。一个中心 Orchestrator 智能体负责分解任务并将子任务分配给多个专职的 Workers 智能体。数据流这是一个分层、协作的流动模式。 总任务 - Orchestrator - 结果汇总 - 最终输出工作原理每个工作者智能体都有自己独立的上下文和专用工具专注于解决特定领域的问题。决策与数据选择机制在上述架构中智能体或其模块如何决定“需要什么数据”以及“下一步做什么”这依赖于其内部的规划和推理能力。ReAct 框架ReActReasoning and Acting是一个基础且强大的框架它通过模拟人类的“Reasoning-Acting”模式使LLM能够动态地决定数据需求。其核心是一个循环思考ThoughtLLM 首先进行内部推理。它分析当前任务和已有信息判断是否缺少完成任务所需的知识并制定下一步的行动计划。例如“用户问我今天旧金山的天气但我不知道。我需要调用天气查询工具。”行动Action LLM 决定调用一个具体的工具并生成调用该工具所需的参数。例如Action: search_weather(location“San Francisco”)。观察Observation系统执行该行动调用外部 API并将返回的结果作为“观察”数据提供给LLM。例如Observation: “旧金山今天晴22摄氏度。”再次思考 LLM 接收到新的观察数据再次进入思考环节判断任务是否完成或是否需要进一步的行动。例如“我已经获得了天气信息现在可以回答用户的问题了。”在这个循环中数据流是根据 LLM 的“思考”结果动态生成的。当LLM判断需要外部数据时它会主动触发一个“行动”来获取数据然后将获取到的“观察”数据整合进自己的上下文中用于下一步的决策。Planning 和任务分解对于更复杂的任务智能体通常会先进行规划Planning。一个高阶的规划模块会将用户的宏大目标分解成一系列更小、更具体、可执行的子任务。数据流向 规划模块的输出是一份“计划清单”Planning List这份清单定义了后续一系列模块的调用顺序和数据依赖关系。前一阵子流行的 Claude Code刚更新的 Cursor v1.2以及上个版本流行的 Gemini/GPT DeepResearch 就属于这个架构例如对于“帮我策划一次巴黎三人五日游”的请求规划模块可能会生成如下计划并定义了每个步骤所需的数据输入和输出[获取用户预算和偏好] - [搜索往返机票][机票信息] - [根据旅行日期和预算搜索酒店][酒店信息] - [规划每日行程][机票、酒店、行程信息] - [生成最终行程单和预算报告]Reflection 机制先进的智能体架构还包含反思Reflection机制 。智能体在执行完一个动作或完成一个子任务后会评估其结果的质量和正确性。如果发现问题它可以自我修正重新规划路径。这是截止撰文时各大主流 deep research 平台使用的核心技术方案 数据流向 这是一个反馈循环。模块的输出不仅流向下一个任务模块还会流向一个“评估器”模块。评估器的输出如“成功”、“失败”、“信息不足”会反过来影响规划模块从而调整后续的数据流向。框架与工具上述的架构和机制并非凭空存在而是通过具体的开发框架实现的。其中LangGraph 作为 LangChain 的扩展为构建具有显式数据流的智能体系统提供了强大的工具集。LangGraph用图Graph定义工作流WorkflowLangGraph 的核心思想是将智能体应用构建成一个状态图State Graph。这个图由节点和边组成清晰地定义了数据如何在不同模块间流动状态State这是整个图的核心一个所有节点共享的中央数据对象。你可以把它想象成一个“数据总线”或共享内存。开发者需要预先定义 State 的结构每个节点在执行时都可以读取和更新这个 State 对象 。节点Nodes代表工作流中的一个计算单元或一个步骤。每个节点通常是一个 Python 函数它接收当前的 State 作为输入执行特定任务如调用 LLM、执行工具、处理数据然后返回对 State 的更新。边Edges连接节点定义了工作流的路径即数据在 State 更新后应该流向哪个节点。简单边Simple Edges定义了固定的、无条件的流向用于实现链式工作流。条件边Conditional Edges 用于实现路由逻辑。它会根据一个函数的输出来决定接下来应该走向哪个节点从而实现流程的分支 。检查点Checkpointer LangGraph 提供了持久化机制可以在每一步执行后自动保存 State 的状态。这对于构建需要长期记忆、可中断和恢复、或需要 Human-in-the-Loop 的复杂业务流程至关重要。复杂业务流程的 AI 智能体其核心挑战已从单纯优化信息检索如 RAG或提示词转向了对内部工作流和数据流的精心设计与编排。Context Engineering 的未来Graph RAG 的兴起标准的基于向量的 RAG 在处理高度互联的数据时存在局限。而利用知识图谱的图 RAG 不仅能检索离散的信息块还能检索它们之间的显式关系。这使得模型能够进行更复杂的多跳推理并提供上下文更准确的回答 。智能体自主性的增强像 Self-RAG 和 Agentic RAG 这样更自主的系统将成为趋势LLM 将承担更多管理自身上下文的责任。这将模糊 Context Engineering 系统与 LLM 本身之间的界限。超越固定上下文窗口针对 Lost in the Middle 问题的研究正在进行中包括探索新的模型架构如改进的位置编码和训练技术。这些研究的突破可能会从根本上改变当今 Context Engineering 师所面临的约束。终极目标Context Engineering 本质上是一座桥梁它是一套复杂的补偿机制用以弥补 LLM “don’t read minds—they read tokens”的现实。人工智能研究的长期目标是创造出具有更强大内部世界模型的 AI从而减少对此类庞大外部上下文支架的依赖。 Context Engineering 的演进将是衡量我们朝此目标迈进的关键指标。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询