2026/4/17 13:49:56
网站建设
项目流程
商务网站开发设计结论,珠海软件开发公司,网站参考模板,wordpress主题图片替换随着大语言模型#xff08;LLM#xff09;技术的不断演进#xff0c;检索增强生成#xff08;Retrieval-Augmented Generation, RAG#xff09;正经历着一场从“朴素检索”向“智能认知”的根本性范式转移。在2025年末至2026年初的这一关键时间窗口#xff0c;学术界与工…随着大语言模型LLM技术的不断演进检索增强生成Retrieval-Augmented Generation, RAG正经历着一场从“朴素检索”向“智能认知”的根本性范式转移。在2025年末至2026年初的这一关键时间窗口学术界与工业界密集发布了一系列突破性研究旨在解决传统 RAG 系统面临的核心痛点长文档理解中的全局上下文缺失、高置信度幻觉、静态知识库的局限性、多模态融合的异构鸿沟以及复杂推理中的逻辑断层。本报告对当前最顶尖的12种 RAG 高级架构进行了穷尽式的深度解析。这些架构不仅仅是对现有技术的微调而是代表了四种新兴的技术演进支柱认知语境化Cognitive Contextualization、元认知验证与动态性Metacognitive Verification Dynamics、多模态具身智能Multimodal Embodiment以及结构化推理与效率优化Structured Reasoning Efficiency。通过对 MiA-RAG、HGMem、QuCo-RAG、HiFi-RAG 等十二篇核心论文的系统性解构我们发现未来的 RAG 系统将不再仅仅是一个外挂的搜索引擎而是一个具备即时记忆构建、自我反思校验、跨模态感知以及系统化规划能力的智能体Agent。本报告长达两万字旨在为人工智能领域的研究人员、架构师及决策者提供一份详尽的技术路线图揭示这些架构背后的数学原理、工程实现细节及深远的应用前景。第一部分认知语境化与记忆重构从“碎片化检索”到“全局心智图景”的跃迁传统 RAG 系统在处理长文档或复杂叙事时往往受困于“碎片化”难题。标准的切片Chunking策略将连贯的文本切割成孤立的段落导致模型在检索时只见树木不见森林产生著名的“迷失在中间Lost in the Middle”现象。为了突破这一瓶颈MiA-RAG 和 HGMem 两种架构分别从层级化摘要和超图拓扑的角度为 RAG 系统引入了类似人类的“长时工作记忆”和“全局感知”能力。1. MiA-RAG基于心智图景的全局感知 RAG核心论文Mindscape-Aware Retrieval Augmented Generation for Improved Long-Context Understanding1.1 理论困境局部最优与全局失语在传统的 RAG 流程中检索器Retriever通常基于向量相似度Cosine Similarity寻找与查询最相关的文本片段。然而这种机制存在本质缺陷它假设答案显式地存在于某个局部片段中。但在处理文学作品分析、长篇法律文书综述或历史事件因果推断时答案往往是“涌现”的Emergent分布在全文的多个角落且需要理解整体脉络才能整合。例如当用户问“小说主人公的心态是如何随着战争进程而变化的”时单一的章节片段无法提供完整答案甚至可能因为缺乏前文背景而导致模型产生误读。这就是所谓的“全局意义构建Global Sense-Making”缺失问题。1.2 架构革新心智图景Mindscape的构建MiA-RAG 的核心创新在于引入了一个显式的全局语义支架称为“心智图景”Mindscape, 。这一概念借鉴了认知心理学中的图式理论即人类在阅读长文时会在脑海中构建一个高层次的抽象模型。 MiA-RAG 的实现机制包含以下关键步骤分层递归摘要Hierarchical Summarization系统不再简单地对文档进行切片而是建立一个多层级的摘要树。底层是原始文本片段上一层是对相邻片段的摘要再上一层是对摘要的摘要直至生成一个覆盖全文的根摘要Root Summary。这个根摘要即为“心智图景”的核心。双重条件推理Dual-Conditioned Inference传统的生成概率模型为 即答案 取决于问题 和检索内容 。MiA-RAG 将其修正为 。这意味着无论是检索过程还是生成过程始终受到全局心智图景 的约束和指导。富集查询向量在检索阶段系统利用 对用户的原始查询进行“去模糊化”和“语境补全”。例如原本模糊的查询“他为什么要离开”会被扩充为“在[心智图景中的事件背景]下主人公[姓名]为什么要离开[地点]”从而极大提高了检索的精准 度。1.3 实验表现与深层洞察在 NarrativeQA长篇叙事问答和 Bench超长上下文基准等数据集上的测试显示MiA-RAG 取得了显著的性能提升。•召回率飞跃在 NarrativeQA 上Recall5 指标从基线模型的 54.5% 跃升至75.9%。这表明拥有全局视野的检索器能更有效地定位到那些字面相似度不高但语义紧密相关的深层证据。•推理一致性F1 分数相比原版 Qwen2.5-14B 模型提升了16.2分。这种提升不仅仅是准确率的增加更体现了模型推理逻辑的连贯性。深度洞察MiA-RAG 的成功揭示了一个重要趋势——未来的检索器将不再是无状态的Stateless。通过预先计算并持有一个“文档指纹”即心智图景RAG 系统可以在不显著增加推理成本的前提下模拟出类似无限上下文模型的效果这对于资源受限的端侧设备尤为重要。2. HGMem基于超图记忆的多步 RAG核心论文Improving Multi-step RAG with Hypergraph-based Memory for Long-context Complex Relational Modeling2.1 理论困境二元关系的局限性现有的 GraphRAG图增强 RAG大多基于传统的知识图谱其中边Edge仅连接两个节点Node即 。然而现实世界中的复杂逻辑往往是多元的n-ary。例如“药物A、患者年龄60岁、既往病史Z”这三个条件同时存在时才会导致“风险X”。传统的二元图会将这种关系拆解为三条独立的边导致信息在传播过程中丢失了“同时性”这一关键约束使得模型难以进行精确的归因推理。2.2 架构革新动态演化的超图记忆HGMemHypergraph-based Memory提出了一种基于**超图Hypergraph**的工作记忆机制。•超边Hyperedges作为思维单元在超图中一条边可以同时连接任意数量的节点。这使得 HGMem 能够将一个完整的“事实复合体”或“思维单元”存储为一个单一的拓扑结构从而保留了信息的高阶关联 6。•动态记忆演化Dynamic Evolution与传统的静态索引不同HGMem 的超图是在推理过程中实时构建的“工作记忆”。随着多步推理的进行系统执行三种拓扑操作◦更新Update修正已有节点的属性或权重。◦插入Insert引入新的实体节点。◦合并Merge将新发现的关联实体打包成新的超边。这种动态性允许模型捕捉那些在原始文档中并未显式相连但通过逻辑推导可以关联起来的隐性知识 。2.3 “意义构建”的工作流HGMem 采用了一种自适应的检索策略在“局部调查Local Investigation”和“全局探索Global Exploration”之间动态切换。初始检索基于问题触发初步检索形成初始节点。超边生成系统分析检索到的证据识别出多个实体间的复杂关系构建超边。迭代推理基于当前的超图结构模型生成新的子问题进一步检索并扩充超图。这种迭代过程使得记忆结构不断“生长”直至覆盖问题的全部逻辑链路。2.4 实验表现与深层洞察在 NoCha、NarrativeQA 和 Prelude 等强调“全局意义构建”的数据集上HGMem 展现了压倒性的优势。•小模型战胜大模型令人震惊的是搭载 HGMem 的 Qwen2.5-32B 模型在多项任务中匹配甚至超越了基于 GPT-4o 的基线系统。这有力地证明了更优秀的记忆结构可以弥补模型参数量的不足。•复杂关系建模消融实验显示如果移除“合并Merge”操作系统在复杂推理任务上的性能大幅下降证明了超边在捕捉高阶语义关系中的决定性作用 。深度洞察HGMem 标志着 RAG 从“文本检索”向“结构化知识生成”的演进。未来的 RAG 系统不仅是读取信息更是在实时编织一张针对当前问题的知识网络。第二部分元认知验证与动态性构建具备“自我怀疑”能力的 RAG 系统随着 RAG 在高风险领域的应用如医疗、法律模型生成的可靠性成为首要考量。第二类架构革新聚焦于“元认知Metacognition”即赋予系统评估自身知识边界、检测幻觉并在必要时修正自身知识库的能力。3. QuCo-RAG基于语料库共现统计的动态 RAG核心论文QuCo-RAG: Quantifying Uncertainty from the Pre-training Corpus for Dynamic Retrieval-Augmented Generation3.1 理论困境自信的幻觉传统的“动态 RAG”通常依赖模型自身的置信度如 Logits、Entropy来决定是否需要检索。然而大模型普遍存在“校准失调Miscalibration”问题。一个语言表达极其流利的模型可能对一个完全虚构的事实表现出极高的置信度Confident Hallucination。依赖模型内部信号来验证事实本质上是一种循环论证难以根除幻觉。3.2 架构革新客观统计学基准QuCo-RAG 彻底摒弃了主观的置信度转而寻求一个客观的真理锚点预训练语料库的统计数据。•Infini-gram 引擎该系统接入了一个包含4万亿 token例如 OLMo-2 语料库的超大规模索引引擎。它不依赖神经网络推理而是直接查询 n-gram 在语料库中的原始频率。•两阶段非自信度检测生成前Pre-Generation系统识别问题中的实体。如果这些实体在语料库中的频率极低长尾知识说明模型仅仅是“见过”而非“习得”了这些知识系统强制触发检索。运行时Runtime在生成过程中系统实时提取产生的三元组主体-关系-客体。它查询这些实体对在语料库中的共现频率Co-occurrence。如果共现率为零即便模型置信度再高也被判定为高风险幻觉立即触发检索并重写。3.3 实验表现与深层洞察•基准测试在 HotpotQA 和 2WikiMultihopQA 等多跳问答任务中QuCo-RAG 的精确匹配率Exact Match相比基线提升了5–12 个百分点。•毫秒级延迟得益于后缀数组Suffix Arrays等高效数据结构Infini-gram 引擎能在毫秒级别完成对万亿级语料的查询使其具备了实时部署的可行性。深度洞察QuCo-RAG 的提出具有哲学意义——它将 RAG 系统的“信任根基”从黑盒模型内部转移到了透明的数据统计外部。这为构建可解释、可信赖的 AI 系统提供了一条全新的路径。4. Bidirectional RAG双向自进化 RAG核心论文Bidirectional RAG: Enabling Safe, Self-Improving Corpus Expansion4.1 理论困境静态知识库的熵增标准 RAG 是“只读”的。无论模型在交互中生成了多么精彩的总结或推导出了多么重要的新知这些信息在会话结束后即烟消云散。知识库不仅没有增长反而相对于不断变化的世界显得日益陈旧。反之如果简单粗暴地将模型生成的内容回写到库中又会面临“幻觉污染Hallucination Pollution”的风险——模型生成的错误信息被索引后会在下一次检索中被当作事实依据导致错误的自我强化循环。4.2 架构革新受控的回写机制Bidirectional RAG双向 RAG引入了一个严密的后向路径Backward Path允许系统在通过严格审查后将生成内容反哺给知识库。•前向路径标准的检索-生成流程 ()。•后向路径与接受层Acceptance Layer生成的答案 并不直接入库而是必须闯过三道关卡蕴含验证Grounding Verification利用 DeBERTa-v3 等 NLI 模型验证 是否逻辑上被检索到的文档所蕴含Entailment Score 。这确保生成内容有据可依。归因检查Attribution Checking检查生成内容中的引用标注是否真实指向了对应的文档 ID杜绝“虚假引用”。新颖性检测Novelty Detection计算语义相似度只有当生成内容提供了现有文档未包含的新信息时Novelty Score 才会被视为有价值的增量知识。4.3 经验存储器Experience Store除了事实知识系统还维护一个“经验存储器”记录被拒绝的生成内容及其原因Critiques。在未来的查询中系统会检索这些“失败教训”进行元认知学习避免重蹈覆辙。4.4 实验表现与深层洞察•覆盖率提升在 QA 任务中双向 RAG 实现了40.58%的知识覆盖率几乎是标准 RAG20.33%的两倍。这意味着系统通过自我思考填补了原始语料的空白。•数据纯净度相比朴素的回写策略双向 RAG 添加的文档数量减少了 72%却带来了更高的性能提升证明了过滤机制在去噪方面的有效性。5. RAGPart RAGMask防御语料库投毒的安全机制核心论文RAGPart RAGMask: Retrieval-Stage Defenses Against Corpus Poisoning in Retrieval-Augmented Generation5.1 理论困境检索阶段的阿喀琉斯之踵RAG 系统的开放性使其极易受到语料库投毒攻击Corpus Poisoning Attacks。攻击者只需向知识库注入包含特定“触发词”的恶意文档。当用户查询触及该词时恶意文档会获得极高的检索分数进而误导 LLM 生成错误答案。传统的防御往往集中在生成阶段检查答案不仅计算昂贵而且一旦恶意信息进入上下文窗口往往为时已晚。5.2 架构革新检索阶段的免疫系统RAGPart 和 RAGMask 将防御战线前移至检索阶段直接利用稠密检索器Dense Retriever的嵌入特性进行清洗。•RAGPart基于分区的防御利用了稠密检索器如 Contriever的归纳偏置Inductive Bias。一个正常的文档其任意片段的嵌入向量应该与整篇文档的嵌入向量在语义空间上接近。而中毒文档通常是“拼盘式”的良性文本中夹杂恶意触发词其片段嵌入与整体嵌入会产生显著的发散Divergence。RAGPart 通过计算这种发散度来识别并隔离异常文档 13。•RAGMask基于掩码的防御针对的是“高影响力 Token”。投毒攻击往往依赖少数几个关键词来拉高分数。RAGMask 动态地掩盖文档中的高梯度 Token并观察检索分数的下降幅度。正常文档的语义是分布式的掩盖个别词不会导致分数崩塌而中毒文档的分数则极其脆弱一旦触发词被掩盖分数会断崖式下跌。系统据此剔除这些“碰瓷”的文档。5.3 实验表现与深层洞察•防御效果在面对 HotFlip、AdvRAGgen 等多种攻击策略时两种方法均显著降低了攻击成功率ASR。•效用权衡实验表明RAGMask在保障安全的同时对正常查询的检索成功率影响更小展现了更佳的“安全-效用”平衡 15。这提示我们在构建企业级 RAG 时必须引入这种底层的“免疫检测”机制而非仅仅依赖上层的提示词工程。第三部分多模态具身智能从“阅读文本”到“感知世界”的跨越第三类架构革新标志着 RAG 从纯文本处理向多模态理解与物理世界交互的延伸。数据不再局限于文字视频流、物理环境的可供性Affordance以及交通标志的视觉特征都成为了检索的对象。6. TV-RAG长视频时序检索与理解核心论文TV-RAG: A Temporal-aware and Semantic Entropy-Weighted Framework for Long Video Retrieval and Understanding6.1 理论困境时间维度的缺失直接将图文 RAG 技术应用于视频领域面临巨大挑战。视频不仅是图像的集合更是一个时间序列。传统的 RAG 可能会检索到第5分钟的画面和第20分钟的字幕强行拼凑在一起导致时空错乱。此外视频中存在大量的冗余帧随机采样会导致信息密度极低。6.2 架构革新熵权与时序衰减TV-RAG 提出了一种**无需训练Training-Free**的架构通过两个核心模块解决上述问题 •语义熵加权的关键帧选择器Semantic-Entropy Key-Frame Selector系统不再均匀采样而是计算视频流在视觉、OCR 和音频三个通道上的“语义熵”。熵值高意味着信息量大如画面突变、出现新文字。系统优先选择这些高信息密度的帧去除了大量静止或重复的画面 。•时序衰减检索Temporal-Decay Retrieval在计算相似度时引入显式的时间衰减因子。如果某一段字幕与查询高度匹配系统会赋予该字幕时间戳附近的视觉帧更高的权重强制检索结果在时间轴上保持对齐Synchronization。这确保了视觉证据与文本证据属于同一事件。6.3 实验表现与深层洞察•基准统治力TV-RAG 在 Video-MME、MLVU 和 LongVideoBench 等长视频理解基准上击败了包括 GPT-4V 在内的主流基线模型。•低成本升级作为一个无需微调的插件模块它可以直接挂载到现有的 LVLM大视频语言模型上为处理小时级时长的视频提供了一条极具性价比的技术路径 。7. MegaRAG多模态知识图谱 RAG核心论文MegaRAG: Multimodal Knowledge Graph-Based Retrieval Augmented Generation7.1 理论困境视觉信息的非结构化在处理包含大量图表、布局复杂的文档如财务报表、维修手册时传统 RAG 往往将图片视为独立的附件。模型可以看到图片但缺乏对图片内部元 素之间、图片与正文之间关系的结构化理解。视觉信息与文本信息之间存在“语义鸿沟”。7.2 架构革新自动化 MMKG 构建MegaRAG 致力于将非结构化的多模态文档转化为结构化的多模态知识图谱MMKG。•并行抽取利用多模态大模型MLLM并行处理文档的每一页不仅抽取文本实体还识别视觉元素如图表中的特定数据点、布局区域并将它们作为图谱中的节点。•跨模态对齐通过节点合并将文本中提到的概念如“通货膨胀率”与图表中对应的视觉数据节点连接起来消除模态间的隔阂。•迭代精炼Iterative Refinement系统引入了一个“回溯”机制。在初步建图后会检索子图进行自我检查补充缺失的跨模态链接例如明确指出“图1”是“第3段”的佐证从而增强图谱的连通性 。7.3 实验表现与深层洞察在书籍级Global QA和页面级Local QA问答任务中MegaRAG 均超越了 GraphRAG纯文本图谱和 LightRAG。它证明了将视觉信息结构化是实现深度文档理解的必经之路。8. AffordanceRAG机器人具身记忆 RAG核心论文Affordance RAG: Hierarchical Multimodal Retrieval with Affordance-Aware Embodied Memory for Mobile Manipulation8.1 理论困境“是什么” vs “能不能用”对于一个家庭服务机器人识别出“这是一个杯子”是不够的。它必须知道“这个杯子把手朝外可以抓取”或者“这个杯子放在高处够不着”。传统的 VLM-RAG 缺乏这种对物理**可供性Affordance**的感知导致检索到的物体虽然语义匹配但在物理上无法操作。8.2 架构革新可供性感知重排序AffordanceRAG 构建了一种具身记忆Embodied Memory将物理属性融入检索过程。•视觉提示Visual Prompting利用 VLM 对环境中的物体进行预扫描估算其可供性如抓取点、移动性并将这些物理属性作为元数据存入记忆。•层级检索与重排序语义粗筛根据指令“给我拿点喝的”检索语义相关的物体杯子、瓶子。可供性精排Affordance Reranking根据机器人的当前状态和能力对候选物体进行重排序。物理上不可行如被遮挡、过重的物体会被降权。8.3 实验表现与深层洞察在移动操作机器人上的实机测试表明AffordanceRAG 能够显著提高任务执行的成功率。它标志着 RAG 技术开始从数字世界走向物理世界成为具身智能Embodied AI的核心组件 。9. SignRAG零样本路标识别 RAG核心论文SignRAG: A Retrieval-Augmented System for Scalable Zero-Shot Road Sign Recognition9.1 理论困境现实的长尾分布自动驾驶系统通常依靠监督学习识别交通标志。然而世界各地的路标千差万别且不断有新标志出现如临时施工标志。依靠收集海量数据训练分类器不仅成本高昂而且无法应对从未见过的“零样本Zero-Shot”类别。9.2 架构革新检索即分类SignRAG 创造性地将分类问题转化为检索问题。•向量库作为知识库系统离线构建了一个包含标准路标设计图如 MUTCD 手册及其文本描述的向量数据库。•检索-推理流程VLM 描述车载摄像头捕捉到未知标志VLM 生成对其视觉特征的自然语言描述。相似度检索用该描述在数据库中检索最相似的标准设计。LLM 细粒度判别LLM 作为一个“推理分类器”对比输入图像和检索到的候选标志分析细微差异如数字“50”与“60”的区别做出最终判定。9.3 实验表现与深层洞察•零样本能力在完全未见过的 303 类路标上SignRAG 达到了95.58%的准确率。在复杂的真实道路场景中准确率也高达 82.45%。•可扩展性新增一种路标只需在数据库中插入一条记录无需重新训练模型。这极大地降低了自动驾驶系统的维护成本和迭代周期 。第四部分结构化推理与效率优化优化 RAG 的“思考过程”最后一部分关注 RAG 系统的推理深度与计算效率。Graph-O1 将推理过程变成了一场深度的图搜索博弈而 HiFi-RAG 和 Hybrid RAG 则展示了如何在噪声和成本约束下实现最优性能。10. Graph-O1基于 MCTS 的图谱推理核心论文Graph-O1: Monte Carlo Tree Search with Reinforcement Learning for Text-Attributed Graph Reasoning10.1 理论困境浅层遍历与短视现有的 GraphRAG 往往只是将子图序列化为文本喂给 LLM这是一种被动的“阅读”。模型无法主动地在图中进行探索难以解决需要多步跳跃Multi-hop的复杂问题。模型往往会因为上下文窗口限制而丢失远距离的逻辑链条。10.2 架构革新系统2System 2思维的引入Graph-O1 借鉴了 OpenAI o1 模型的“慢思考”范式将图推理建模为**蒙特卡洛树搜索MCTS**过程。•MCTS 四阶段选择Selection智能体选择当前最优的推理路径。扩展Expansion探索当前节点的邻居发现新的线索。模拟SimulationLLM 预判该路径是否能通向最终答案Value Estimation。回溯Backpropagation将模拟结果反馈更新路径权重。•端到端强化学习系统结合了GRPOGroup Relative Policy Optimization算法通过强化学习优化奖励函数。奖励不仅考量答案的准确性还考量推理路径的合理性和格式的规范性 。10.3 实验表现与深层洞察Graph-O1 成功将 LLM 从一个“被动的读者”转变为一个“主动的导航者”。这种显式的搜索过程不仅提高了复杂问答的准确率更重要的是提供了可解释性Interpretability——MCTS 的搜索树清晰地展示了模型的思考轨迹使得推理过程透明化。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】