2026/4/18 4:08:09
网站建设
项目流程
网站功能定制,杭州做网站费用,网站评论源码,网站策划初级方案模板llm-app-agent-fc-mcp-a2a.png
本文将从基础概念出发#xff0c;逐步解析 Agent#xff08;智能体#xff09;、Function Calling#xff08;函数调用#xff09;、MCP#xff08;模型上下文协议#xff09;及 A2A#xff08;智能体协作协议#xff09;#xff0c;帮…llm-app-agent-fc-mcp-a2a.png本文将从基础概念出发逐步解析 Agent智能体、Function Calling函数调用、MCP模型上下文协议及 A2A智能体协作协议帮助读者理解 LLM 应用知识体系。本文是参考官方文档、网上的一些文章后进行总结而成旨在让不了解的同学阅读后有一个大致的概念。大佬可以直接跳过或者也可以帮忙看下写错没有哈哈~如果你在阅读过程中发现文中存在错误请一定留言指正感谢~1. Agent1.1 Agent 是什么Agent智能体是一个能够感知环境、自主决策、执行动作的实体。在大模型场景中Agent 通常基于大语言模型LLM作为核心推理引擎结合外部工具、知识库和多模态能力完成复杂任务。其本质是构建具备『思考-行动-观察』循环ReAct的智能系统。核心能力推理通过 LLM 解析用户意图、规划任务步骤。工具调用调用外部 API、数据库、代码等工具。记忆与学习保留历史交互记录优化长期行为。一句话描述Agent 是一个以 LLM 为基础结合其他外部工具辅助最终能够完成复杂任务的实体(工具、助手)。1.2 为什么需要 Agent大模型的两大缺陷大模型受限于计算资源和训练时间导致信息滞后并且其基于统计规律的回答缺乏真正的逻辑推理能力。1没有最新信息大模型的训练需要大量的计算资源和时间因此它们的知识库通常是在某个时间点之前的数据集上训练的。例如GPT-3.5 和 GPT-4 的知识截至 2021 年 9 月。这意味着它们无法提供此后的新信息或事件。为保持时效性需定期重训模型但成本高昂且耗时导致大模型难以及时跟上信息更新。2没有真逻辑**大模型生成的文本和回答主要基于训练数据的统计规律而非严格的逻辑推理或形式化证明。**因此在处理复杂或需深入逻辑推理的问题时它们可能产生看似合理但实际不准确的回答。此外大模型通过预测给定上下文中的下一个词来生成文本可能受训练数据中的偏见和错误影响从而削弱逻辑严谨性。因此为了能够完成更加复杂的任务我们需要将大模型和外部工具相结合而落到具体实现上体现出来就是 Agent。1.3 Agent 工作流程举个例子 有一个很简单的任务我要查询重庆的天气。对于大模型来说没有最新的知识自然是不知道今天的天气情况那么需要借助外部工具来完成这个任务比如调用天气 API。整个流程大概就是这样的agent-workflow.png1用户发送任务给 Agent2Agent 转发给 LLM并携带上配置好的 tools 信息3LLM 根据问题和 tools 信息找出需要使用的 tool 以及请求参数返回给 Agent4Agent 根据 3 中返回的信息调用具体工具得到结果5对应工具将结果返回给 Agent6 Agent 将结果发送给 LLM7LLM 根据上下文整合信息生成最终结果返回给 Agent8Agent 将结果返回给用户可以看到对于这个简单的任务在流程中 Agent 好像就干了两件事1在 User 和 LLM 之间传话2配合 LLM 调用外部工具当然了真正的 Agent 肯定会更加复杂。1.4 LLM 是如何调用外部工具的看完上面的 Demo 之后大家可能会有一个疑问大模型是怎么知道这个功能该调用哪个外部工具就可以实现呢又怎么知道这些工具该如何传参数。实际上大模型确实不知道因此我们要将外部工具信息告知大模型比如在 System Prompt 中增加 tools 描述。这样大模型就知道有哪些工具可以调用了同时根据用户的问题能够自行判断是否需要调用外部工具若需要则从问题中解析参数然后以固定格式(一般为 JSON)返回。例如可以使用以下 System Prompt你是一个智能助手可以根据用户请求选择并调用合适的外部工具。以下是工具库和调用规范[ { name: get_weather, description: 查询指定城市的实时天气状况, invoke_conditions: [ 天气, 气温, 降雨, 风力 ], parameters: [ { name: city, type: string, required: true, extract_rule: 从问题中提取明确城市名称, examples: [ 北京市, 上海 ] }, { name: date, type: date, required: false, default: 当天, format: YYYY-MM-DD, examples: [ 2024-08-15 ] } ] }]你需要严格按以下 JSON 格式返回工具调用结果注意不要返回其他额外信息{tool: 工具名称, // 必须与工具库中的name完全一致params: { 参数1: 值1, // 参数名与工具定义一致 参数2: 值2 }}然后我们再问问题帮我查询重庆的天气。以下为大模型的思考过程好的用户让我帮忙查询重庆的天气。首先我需要检查用户的问题中是否包含需要调用工具的关键词。根据工具库中的定义get_weather工具的调用条件包括“天气”、“气温”、“降雨”、“风力”等词。用户的问题里明确提到了“天气”所以符合调用条件。接下来我需要提取参数。根据工具的定义必须的参数是城市名称city可选参数是日期date默认当天。用户的问题中明确提到了“重庆”所以city参数的值应该是“重庆市”。日期没有特别说明所以使用默认值“当天”。然后我需要确认参数提取是否正确。用户的问题中没有提到具体日期所以date参数保持默认。城市名称是否正确用户写的是“重庆”而工具示例中有“北京市”和“上海”但根据常识“重庆”作为直辖市正确的名称应该是“重庆市”不过工具的参数是否接受简称可能需要确认。但根据工具的定义示例中用了“上海”作为简写所以可能允许使用简称。不过为了准确可能应该使用全称“重庆市”。不过用户原文是“重庆”可能工具的参数接受这个名称所以直接提取即可。最后按照要求生成JSON格式的响应确保工具名称正确参数正确无误没有多余信息。最终的返回结果{ tool: get_weather, params: { city: 重庆 }}可以看到模型可以根据问题找到正确的工具并且从问题中解析出参数最终以 JSON 形式返回了调用请求Agent 收到这个 JSON 格式信息后就可以真正的调用天气 API 去查询天气了。不过需要注意的是根据模型能力不同可能存在即使明确要求输出 JSON仍然出现 语法错误、转义字符错误、多出冗余文本之类的问题。2. Function Calling2.1 什么是 Function Callinghttps://platform.openai.com/docs/guides/function-calling[1]FunctionCalling 由 OpenA I 在 2023 年 6 月推出最初在 GPT-3.5 和 GPT-4 模型上实现它允许大语言模型与外部工具连接将自然语言转换为 API 调用。这解决了大模型在训练结束就知识更新停滞的问题。OpenAI 文档中的描述Function calling provides a powerful and flexible way for OpenAI models to interface with your code or external services.Function Calling 是特定于大语言模型(LLM)的机制允许模型调用外部函数或 API它允许模型生成结构化 JSON 输出以调用外部系统中预定义的函数或 API。通过调用外部工具和服务Function Calling 帮助大模型解决了比如今天温度多少度之类的实时性问题。一句话描述Function Calling 是一种允许模型通过生成结构化 JSON 输出以’调用’外部系统中预定义的函数的机制。注意这里的’调用’是带引号的,因为 FunctionCalling 并不是直接赋予了 LLM 调用外部函数的能力而是让 LLM 能够根据预定义函数列表、用户输入 Prompt 等相关信息知道该调用哪个函数并以此生成结构化输出包括该调用的函数名、输入参数等以供外部工具使用。2.1 为什么需要 Function Calling实际上之前我们通过在 System Prompt 中注入 tools 信息的方式已经可以实现类似 Function Calling 的功能了不过这种方式不够稳定模型可能不会每次都正确返回(取决于模型能力)。Function Calling 是厂商如 OpenAI、Anthropic通过微调或架构优化赋予模型生成结构化指令如 JSON的能力这种能力使模型能精准匹配预定义函数而非依赖自然语言生成。Function Calling 本身 没有统一协议不同厂商实现方式不同如 OpenAI 的tools参数、Claude 的tool_use字段。这也是为什么后面又推出了标准化的 MCP 协议,旨在统一工具调用流程。Function Calling 和 使用 System Prompt 模拟二者都是让 LLM 调用外部工具的一种实现或者都可以算是广义上的 Function Calling 。具体区别在于System Prompt 模拟方式主要依赖于模型的自然语言生成能力不够稳定此时的模型只是根据 Prompt 生成返回Function Calling 则是直接对模型进行微调从而赋予模型生成结构化指令的能力更加准确。此时的模型经过特殊的微调能够更好的处理这种需求因此能够更加精准的匹配预定义函数简单理解就是做数学题123…100。一个是硬算,如果比较复杂的任务可能就会出错一个是套公式,n(n1)/2很轻松就得到结果了2.3 FunctionCalling 工作流程流程如下funcation-calling-workflow.png图源https://platform.openai.com/docs/guides/function-calling?api-modechat#overview[2]也是分为这几个步骤1用户定义 Tools 并告知 LLM2用户发送 Prompt 给 LLMLLM 根据拿到的 Tools 信息判断需要调用哪个工具并生成对应 JSON 格式调用请求3用户根据请求调用具体工具4用户将调用结果返回 LLM5LLM 整合结果返回最终回复当然了一般不会是用户直接和 LLM 交互和调用对应工具会有一个中间商,比如 Agent。3. MCP3.1 什么是 MCP**MCP(Model Context Protocol) 是由 Anthropic 推出的一项开放标准协议旨在解决不同大模型与不同外部工具集成的标准化问题。**官方解释是“其目标是为大型语言模型提供一种开放、标准化的方式以便与外部数据源、工具和服务进行连接。”它规定了上下文与请求的结构化传递方式并要求通信格式符合 JSON-RPC 2.0 标准。简单理解MCP 相当于大模型领域的“HTTP 协议”其并不绑定任何大模型这意味着用户可以在支持 MCP 的工具中用任何大模型调用 MCP 服务。协议具体描述在这个仓库modelcontextprotocol[3] 感兴趣的童鞋可以自行查阅英文版描述The Model Context Protocol (MCP) is an open protocol that enables seamless integration between LLM applications and external data sources and tools. Whether you’re building an AI-powered IDE, enhancing a chat interface, or creating custom AI workflows, MCP provides a standardized way to connect LLMs with the context they need.一句话描述MCP 是一种开放、标准化的协议以便大型语言模型能够与外部数据源、工具和服务进行连接。3.2 为什么需要 MCP在 MCP 爆火之前Function Calling 函数调用模式也被众多开发者广泛采纳。但是由于不同厂商对于 Function Calling 的标准、优化方式和迭代路径均不统一开发者可根据规则自由定义函数和 API 调用方式这其中就会出现不通用的问题导致普及困难且需要重复开发这再次凸显了 MCP 标准化的重要性。如 OpenAI 的tools参数、Claude 的tool_use字段。即便是不支持 Function Calling 的模型开发者都能够通过 MCP 协议的方式来调用任何一个服务而这也让我们进入了工具使用的平权时代。目前Anthropic 的 Claude 系列Open AI 的 GPT 系列、Meta 的 Llama 系列deepseek、阿里的通义系列Anysphere 的 Cursor各种主流模型均已接入 MCP 生态。3.3 MCP 架构架构如下mcp-general-architecture.png图源https://modelcontextprotocol.io/introduction#general-architecture[4]MCP 涉及到 5 个组件或角色MCP Hosts: 真正使用 MCP 的程序例如 Claude Desktop, IDEs 或者其他 AI 工具MCP Clients: 实现 MCP 协议的客户端维持和 MCP Server 之间的 1:1 连接MCP Servers: 实现 MCP 协议的服务端通过 MCP 协议公开某些功能MCP 服务器可以提供以下类型的功能Resources: 客户端可以读取的类似文件的数据如 API 响应或文件内容Tools: 工具可以由 LLM 调用的函数经用户批准Prompts: 帮助用户完成特定任务的预先编写的模板…Local Data Sources:本地数据源MCP 服务可以安全访问的本地文件、数据库和其他服务Remote Services: 远程服务MCP 服务可以连接的外部系统需要重点关注的就是 MCP Host、MCP Client 以及 MCP Server 三部分Local Data Sources、Remote Services 可以看做是 MCP Server 自身实现功能的一部分。MCP Host就是直接跟用户交互的应用程序例如 Claude而MCP Client 一般是直接集成在 MCP Host 里这样应用程序既可以和用户交互也可以调用 MCP Server。MCP Server就是提供 Resources、Tools、 Prompts 等等功能的服务端,可以简单理解为把 Function Calling 中的函数封装为了服务满足 MCP 标准从而实现功能复用。3.4 工作流程MCP 工作流程和 前面介绍的 Agent、FunctionCalling 类似mcp-workflow.png1MCP client 首先从 MCP server 获取可用的工具列表2将用户的 Prompt 连同工具描述一起发送给 LLM这里是否使用 FunctionCalling 方式传递 tools 信息取决于 client 的实现如果 Client 使用 System Prompt 模拟方式则不要求模型支持 FunctionCalling3LLM 根据 Prompt 决定是否需要使用工具以及使用哪些工具4如果需要使用工具MCP client 会调用 MCP server 以执行相应的工具调用5工具调用的结果再次被发送回 LLM6LLM 整合所有信息生成最终回答7最后将响应展示给用户MCP Client 一般集成在 MCP Host 中比如 Claude Desktop因此就画在一起了。主要区别在于外部工具信息获取和调用方式上MCP 协议将外部工具定义为 MCP ServerClient 通过连接 MCP Server 获取支持的 tools 列表并通过 MCP 协议进行调用而 FunctionCalling 中tools 信息是提前配置好的同时 tools 的调用一般是调用本地 function因此可以简单理解为 MCP 就是将 Function Calling 进行了标准化。3.5 Function Calling 和 MCP 差异首先 Function Calling 和 MCP 二者都是为了让模型能够调用外部工具假设将这个过程分为三部分1模型感知 tools 信息2模型生成 tool 调用请求3调用指定 tool第一步模型感知 tools 信息有多种方法可以使用 System Prompt 传递 tools 信息对于 Function Calling 实现也是非标准的例如 OpenAI 的tools参数、Claude 的tool_use字段MCP 并没有对这一步做特殊限制主要取决于 MCP Host 的实现 从 MCP Server 获取到 tools 信息之后可以使用 Function Calling 告知模型也可以用别的方式如 System Prompt。第二步模型生成 tool 调用请求这一步其实主要是模型上的差异对于不支持 Function Calling 的模型一般是依靠自然语言生成能力在处理这个请求对于支持 Function Calling 的模型一般是经过特殊数据集微调的在处理这种请求上会更加准确第三步tool 的调用上也有区别对于非 MCP 来说接收到模型的返回后怎么调用工具就看开发者怎么实现了可以是直接调用本地 Function也可以是调用远程 API 都没问题对于 MCP 来说就是按照 MCP 协议调用 MCP Server也就是说MCP 更多的是在定义MCP Server 怎么对外暴露能力其他人该怎么调用 MCP Server。Function Calling 更多关注的是怎么把 tools 信息告知给模型以及模型如何判断该调用哪个 tool因此二者其实是互补的关系。4. A2A4.1 什么是 A2A2025 年 4 月 9 日Google 发布了文章《A2A: A new era of agent interoperability》[5]提出了一个新的开放协议A2AAgent-to-Agent允许 AI Agent 之间在各种企业平台或应用程序上相互通信、安全地交换信息和协调行动。4 月 10 日在 Google Cloud Next 2025 大会上谷歌开源了 Agent2Agent Protocol。A2A(Agent to Agent) 是一项开放标准可让不同平台和框架之间的 AI Agent 进行通信和协作而无需考虑其底层技术。其旨在通过实现真正的多 Agent 场景最大限度地发挥 A gentic AI 的优势。A2A 的核心作用是解决 Agent 之间的沟通和协作以及 Agent 与用户的交互。即 Agent 之间能像人与人交流一样传递意图、协商任务、共享信息。A2A 使开发人员构建的 Agent能够连接任何其它的 Agent基于 A2A 构建并使用户能够灵活组合来自不同供应商的 Agent。最重要的是企业可以通过标准化方法管理其跨不同平台和云环境的 Agent。一句话描述A2A(Agent to Agent) 是一种开放标准可让不同平台和框架之间的 AI Agent 进行通信和协作而无需考虑其底层技术的协议。英文原文An open protocol enabling Agent-to-Agent interoperability, bridging the gap between opaque agentic systems.4.2 为什么需要 A2A因为构建一个能解决所有问题的 Agent 很难或者说基本不可能实现因此一般选择另一条路多 Agent 分工协作。每个 Agent 只需要专注某一方面解决通过 A2A 让多个不同领域的 Agent 协作解决问题多个 Agent 构成流水线共同完成某个任务。怎么有点 MoE 的感觉 **Agent 之间通过 A2A 协议通信Agent 通过 MCP 协议调用外部工具**如下图所示a2a-arch.png图源https://google.github.io/A2A/#a2a-and-mcp-complementary-protocols[6]4.3 关键原则核心能力A2A 在设计时坚持的五个关键原则Embrace agentic capabilities拥抱智能体能力支持自然、非结构化的协作模式。Build on existing standards: 复用现有标准,使用 HTTP、Server-Sent Events (SSE) 和 JSON-RPC确保与现有系统的兼容性。Secure by default默认安全支持企业级认证和授权启动时与 OpenAPI[7] 保持一致。**Support for long-running tasks支持长期任务**处理从快速任务到深入研究的任务提供实时反馈、通知和状态更新。**Modality agnostic:**多模态支持支持文本、音频、视频流等多模态通信。协议具体描述在这个仓库google/A2A[8] 感兴趣的童鞋可以跳转查看A2A 的核心能力a2a-core.png**Capability discovery能力发现**Agent 使用 JSON 格式的 ‘Agent Card’ 来暴露自己的能力其他 Agent 可以根据该信息选择执行任务的最佳 Agent然后使用 A2A 和目标 Remote Agent 通信。Task management任务管理Agent 直接的通信是以完成任务为导向的任务由协议定义对于长时间的任务Agent 之间会通信以保持同步状态。Collaboration协作Agent 之间代理可以相互发送消息以传达 上下文, 回复, 工件或者用户指令。**User experience negotiation:**用户体验协商支持不同内容类型如图像、iframe、视频、网页表单提供丰富的交互。4.4 A2A 工作流程4.4.1 概念A2A 中比较重要的概念Agent Card相当于智能体的身份证能力说明书用于对外公开自身技能和服务接口。以 JSON 格式存储在服务器的/.well-known/agent.json路径包含名称、版本、能力描述如支持的任务类型、认证方式API Key/OAuth、可访问的 HTTP 端点如任务提交 URLA2A Client任务发起方可以是用户应用或其他智能体。A2A Server智能体的任务处理中心负责接收请求并协调任务执行。Task协议中的最小工作单元代表需要完成的用户需求。即时任务如查询天气同步返回结果长期任务如供应链优化通过 SSE 推送实时状态更新生命周期包含 6 种状态流转已提交Submitted→ 处理中Working→ 需输入Input-Required→ 完成/失败/取消唯一标识每个 Task 有全局唯一的 ID支持跨智能体追踪进度执行模式Message智能体间通信的载体支持多模态交互。a2a-workflow.png图源https://google.github.io/A2A/specification/[9]4.4.2 工作流流程如下a2a-workflow2.png1发现 Agent通过 Agent Card了解智能体的能力。2发送任务客户端发送任务请求使用 tasks/send 处理即时任务返回最终 Task 对象。使用 tasks/sendSubscribe 处理长期任务服务器通过 SSE 事件发送更新。3/4处理服务器处理任务可能涉及流式更新或直接返回结果。5交互可选若任务状态为 input-required客户端可发送更多消息使用相同 Task ID 提供输入。6完成任务达到终端状态如 completed、failed 或 canceled。4.5 A2A 和 MCP 协作A2A 社区推荐将 Agent 建模为 MCP 资源(也就是把 Agent Card 存起来)这样其他 Agent 可以通过 MCP 获取到 Agent Card 从而感知到其他 Agent 的信息。a2a-mcp.png图源https://google.github.io/A2A/topics/a2a-and-mcp/#intersection[10]MCP 解决的是 Agent 与外部工具的标准化连接问题而 A2A 解决的是 Agent 之间的协作问题两者共同构成智能体生态的基础协议。5. 小结概念Agent 是一个以 LLM 为基础结合其他外部工具辅助最终能够完成复杂任务的实体(工具、助手)。首先构建一个强大的 Agent 是我们的最终目的根据 Agent 定义 LLM 外部工具 Agent那么如何让 LLM 调用外部工具呢FunctionCalling 和 MCP 两条路FunctionCalling 是一种允许模型通过生成结构化 JSON 输出以’调用’外部系统中预定义的函数的机制。MCP 是一种开放、标准化的协议以便大型语言模型能够与外部数据源、工具和服务进行连接。在构建 Agent 之后如何让 Agent 更加强大呢除了构建单个强大的 Agent 之外我们可以让多个 Agent 进行协作复用其他 Agent 的能力A2A(Agent to Agent) 是一种开放标准可让不同平台和框架之间的 AI Agent 进行通信和协作而无需考虑其底层技术的协议。个人理解LLM 是一切的基础Agent 是我们要实现的目标一个能够解决复杂任务的助手为了能够解决复杂问题Agent 需要在 LLM 基础上结合其他外部工具的辅助FunctionCalling 是 LLM 调用外部工具的一种实现手段MCP 则可以看做是这种手段的标准化LLM FunctionCalling 或者 MCP 我们实现了一个强大的 Agent但是想要构建一个六边形战士很难因此我们让每个 Agent 只需要专注某一方面通过 A2A 让多个不同领域的 Agent 协作解决问题如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】