2026/4/18 16:15:39
网站建设
项目流程
公司网站升级改版方案,国外教做美食网站,免费学高中课程的软件,制作自己盈利的网站一、大模型的选择
当前环境下#xff0c;大模型百花齐放。我筛选出了一些核心玩家#xff0c;你可以看一下表格。非核心的其实还有很多#xff0c;这里我就不一一列举了。厂商虽然很多#xff0c;但真正在研究技术的没多少#xff0c;毕竟前面我们讲过#xff0c;玩大模型…一、大模型的选择当前环境下大模型百花齐放。我筛选出了一些核心玩家你可以看一下表格。非核心的其实还有很多这里我就不一一列举了。厂商虽然很多但真正在研究技术的没多少毕竟前面我们讲过玩大模型投入非常大光看得见的成本包括人才、训练和硬件费用一年就得投入几个亿不是一般玩家能玩得起的。当然也有不少厂商是基于 LLaMA 爆改的或者叫套壳不是真正意义上的自研大模型。ChatGLM-6B 和 LLaMA2 是目前开源项目比较热的两个早在 2023 年年初国内刚兴起大模型热潮时智谱 AI 就开源了 ChatGLM-6B当然 130B 也可以拿过来跑只不过模型太大需要比较多的显卡所以很多人就部署 6B 试玩。从长远看信创大潮下国产大模型肯定是首选企业布局 AI 大模型要么选择 MaaS 服务调用大厂大模型 API要么选择开源大模型自己微调、部署为上层应用提供服务。使用 MaaS 服务会面临数据安全问题所以一般企业会选择私有化部署 公有云 MaaS 混合的方式来架构。在国产厂商里面光从技术角度讲我认为智谱 AI 是国内大模型研发水平最高的厂商这也是我选择 ChatGLM-6B 的原因。还有一点需要考虑就是6B 参数规模为 62 亿单张 3090 显卡就可以进行微调P-Turing和推理对于中小企业而言简直就是福音。为什么要选择ChatGLM-6B。在这里插入图片描述当然如果企业预算充足百万以上可以尝试 6B 的老大哥 GLM-130B简称 130B千亿参数规模推理能力更强使用 130B 的话除了 GPU 资源费用还需要进行商业授权这个要注意。二、如何搞定显卡资源玩儿大模型第一步就是要想办法解决计算资源问题要么 CPU 要么 GPU当然还有 TPU不过 TPU 太小众这里我就不介绍了。我建议你想办法申请 GPU因为适合 CPU 计算的大模型不多有些大模型可以在 CPU 上进行推理但是需要使用低精度轻量化模型而低精度下模型会失真效果肯定不行只适合简单把玩。如果要真正体验并应用到实际项目必须上 GPU。那我们可以从哪些渠道去购买 GPU 呢购买二手显卡无论是个人使用还是企业使用都可以考虑在网上购买二手 RTX3090 显卡单卡 24G 显存8000 块左右可以用于本地微调、推理。如果想用在产品上也可以通过云服务做映射提供简单的推理服务但是不适合为大规模客户提供服务。淘宝租赁显卡资源适合个人学习使用可以按天 / 周 / 月 / 年购买服务比较灵活成本也不高。在线 GPU 租赁比如 autodl、RTX3090-24G每月大概不到 900 块钱也很划算。不仅仅可以用来本地测试还可以用于生产环境推理如果用在生产环境的话最好按照实际推理需求评估每秒推理量具体方法我会在大模型应用架构部分讲解搭建高可用推理环境。各个平台免费资源比如阿里云 PAI 平台、智谱 AI 的开放平台等对于新人都有一定的免费 GPU 额度这个方式省钱但是不推荐因为有时需要为平台推广拉人也挺耗时间的。三、ChatGLM3-6B 部署ChatGLM-6B 目前已经发展到第 3 代 ChatGLM3-6B除了中英文推理还增强了数学、代码等推理能力。根据目前的官方信息在语义、数学、推理、代码、知识等不同角度的数据集上测评显示ChatGLM3-6B-Base 在 10B 以下的基础模型中性能是最强的除此之外还具有 8K、32K、128K 等多个长文理解能力版本。下面我们就一步一步来安装部署 ChatGLM3-6B你也可以在官方文档里找到安装教程。3.1、准备环境操作系统推荐 Linux 环境如 Ubuntu 或者 CentOS。Python 推荐 3.103.11 版本。 Transformers 库推荐 4.36.2 版本。 Torch 推荐使用 2.0 及以上的版本以获得最佳的推理性能。3.2、克隆代码克隆代码命令git clone https://github.com/THUDM/ChatGLM3  克隆代码3.3、安装依赖注意要切换成国内 pip 源比如阿里云下载会快很多。pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/cd ChatGLM3pip install -r requirements.txt显示以下内容表明依赖安装成功。3.4、下载模型下载模型命令git clone https://huggingface.co/THUDM/chatglm3-6b如果 Huggingface 下载比较慢的话也可以选择 ModelScope 进行下载。下载完将 chatglm3-6b 文件夹重新命名成 model 并放在 ChatGLM3 文件夹下这一步非必需只要放在一个路径下在下一步提示的文件里指定好模型文件路径即可。使用 ModelScope 进行下载 先pip install modelscope 然后使用python代码 from modelscope import snapshot_download model_dir snapshot_download(“ZhipuAI/chatglm3-6b”, revision “v1.0.0”) 他会下载到cache区使用linux基本指令移过来就好3.5、命令行模式启动打开文件 basic_demo/cli_demo.py修改模型加载路径。MODEL_PATH os.environ.get(MODEL_PATH, ../model)执行 python cli_demo.py。3.6、Web 控制台模式启动打开文件 basic_demo/web_demo_gradio.py修改模型加载路径。MODEL_PATH os.environ.get(MODEL_PATH, ../model)同时修改最后一行demo.launch(server_name127.0.0.1, server_port7870, inbrowserTrue, shareFalse)server_name 修改为本地 IP并指定端口 server_port 即可。 也可以设置 shareTrue使用 gradio 提供的链接进行访问。执行 python web_demo_gradio.py。默认情况下模型以 FP16 精度加载大概需要 13GB 显存。如果你的电脑没有 GPU只能通过 CPU 启动6B 也是支持的需要大概 32G 的内存。我们修改一下模型加载脚本。model AutoModel.from_pretrained(MODEL_PATH trust_remote_codeTrue).float()如果你的电脑有 GPU但是显存不够也可以通过修改模型加载脚本在 4-bit 量化下运行只需要 6GB 左右的显存就可以进行流程推理。model AutoModel.from_pretrained(MODEL_PATH, trust_remote_codeTrue, ).quantize(4).cuda()同时官方也提供了一个全新的 web demo支持 Chat、Tool、Code Interpreter就在我们克隆下来的代码里在文件夹 composite_demo 下。cd composite_demopip install -r requirements.txtexport MODEL_PATH../modelstreamlit run main.py 或者 python -m streamlit run main.py页面确实上了一个档次。四、超参数介绍ChatGLM3-6B 有 3 个参数可以设置。max_length模型的总 token 限制包括输入和输出的 tokens。temperature模型的温度。温度只是调整单词的概率分布。它最终的宏观效果是在较低的温度下我们的模型更具确定性而在较高的温度下则不那么确定。数字越小给出的答案越精确。top_p模型采样策略参数。每一步只从累积概率超过某个阈值 p 的最小单词集合中进行随机采样而不考虑其他低概率的词。只关注概率分布的核心部分忽略了尾部。对于以下场景官方推荐使用这样的参数进行设置系统设置好我们基本就可以开始进行问答了ChatGLM3-6B 采用了一种新的 Prompt 格式看上去应该是模仿的 ChatGPT。下面我们介绍下这种提问格式。五、新的 Prompt 格式新的提示格式主要是增加了几个角色在对话场景中有且仅有以下三种角色。system系统信息出现在消息的最前面可以指定回答问题的角色。user我们提的问题。assistant大模型给出的回复。在代码场景中有且仅有 user、assistant、system、observation 四种角色**。observation 是外部返回的结果**比如调用外部 API代码执行逻辑等返回的结果都通过 observation 返回。observation 必须放在 assistant 之后。下面这个是官方提供的例子基本把以上 4 种角色都解释清楚了。|system|Answer the following questions as best as you can. You have access to the following tools:[ { name: get_current_weather, description: Get the current weather in a given location, parameters: { type: object, properties: { location: { type: string, description: The city and state, e.g. San Francisco, CA, }, unit: {type: string}, }, required: [location], }, }]|user|今天北京的天气怎么样|assistant|好的让我们来查看今天的天气|assistant|get_current_weatherpythontool_call(locationbeijing, unitcelsius)|observation|{temperature: 22}|assistant|根据查询结果今天北京的气温为 22 摄氏度。为什么会这么设计呢首先当前阶段的大模型经过训练后都可以遵守系统消息而系统消息不算用户对话的一部分与用户是隔离的但是可以控制模型与用户交互的范围比如我们在 system 角色里指定模型充当 Java 技术专家那么就可以指导模型的输出偏向于 Java 技术范围。还有一个原因就是防止用户进行输入注入攻击。在进行多轮对话的时候每次新的对话都会把历史对话都带进去。如果我们在前面的对话中告诉模型错误的提示那么这些错误的提示会在后续的对话中被当作正确的上下文带进去。我们知道基于自回归的模型会根据上下文进行内容推理这样就可能生成错误的内容。角色可以使内容更加容易区分增加注入攻击的复杂度。这种方式不一定能处理所有的攻击类型类似于我们日常开发中的 XSS 注入只能尽可能减少完全避免有点难。想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2025 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容2025 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”