2026/4/18 16:57:53
网站建设
项目流程
长沙手机网站建设,什么软件可以发帖子做推广,网站制作与免费网站建设,在线图片编辑器精简版最近需要本地部署FastGPT进行调研#xff0c;借机整理下安装步骤。
本文适合场景#xff1a;在Windows环境快速部署FastGPT#xff0c;特别是需要配置上语音识别ASR模型#xff08;支持语音输入#xff09;、常见大语言模型、语音合成TTS模型#xff08;支持语音输出借机整理下安装步骤。本文适合场景在Windows环境快速部署FastGPT特别是需要配置上语音识别ASR模型支持语音输入、常见大语言模型、语音合成TTS模型支持语音输出。主要步骤Windows上安装Linux子系统WSL原因是FastGPT需要使用docker方式进行安装WSL让你在Windows上的Linux子系统直接操作docker进行各种镜像安装。Windows上安装Docker Desktop。Linux子系统上使用docker安装FastGPT如果你有Linux系统忽略前面1、2步直接从这步开始。FastGPT上配置各种模型。一、安装WSLWindows版本要求Windows 10 版本 2004 及更高版本内部版本 19041 及更高版本或 Windows 11。右键“以管理员身份运行” 打开PowerShell 输入如下命令然后重启电脑wsl --install该命令将在Windows系统上默认安装Ubuntu操作系统。当然可以安装其他版本的Linux例如Debian或者Windows版本太旧需要在安装前执行额外命令这些情况不是本文重点详细按照文档请参见资料[1]。安装后在运行中搜索Ubuntu可看到已经安装好打开可直接进入了Ubuntu系统的命令行。神奇的是能直接在Windows资源管理器中直接操作Linux的文件目录在Windows命令窗口中执行Linux命令也可在Linux中执行Windows命令例如用notepad.exe打开文件。到此Linux系统已就绪本文假设你有基本的Linux操作经验。二、在Windows上安装Docker DesktopFastGPT需要使用docker进行安装在Windows上安装Docker Desktop后直接能在WSL Linux环境中执行docker各种操作结果在Windows和Linux中都能看到。安装过程就是一个普通的Windows软件安装。从https://www.docker.com/下载Windows版安装包执行安装在安装过程中确保勾选 “Enable the WSL 2 based engine”。安装后打开Docker Desktop确保下面两个选项是勾选了的。进入Linux命令行中执行docker --version能看到具体的版本信息表示已经安装成功。三、安装FastGPT以下操作均在Linux命令行中执行。下载配置文件config.json使用wget从github下载wget https://raw.githubusercontent.com/labring/FastGPT/refs/heads/main/projects/app/data/config.json下载配置文件docker-compose.yml针对使用不同的知识库向量数据库下载不同的文件PgVector适合知识库索引量在 5000 万以下Milvus适合亿级以上的索引量知识数据条数。此处我们以使用PgVector为例下载保存文件名为docker-compose.yml命令如下wget https://github.com/labring/FastGPT/blob/main/deploy/docker/docker-compose-pgvector.yml -O docker-compose.yml配置docker下载的镜像为了能顺利从从国外下载FastGPT及其依赖的镜像需要配置国内的镜像源创建/etc/docker/daemon.json并加入如下内容需要有root权限或者sudo权限{“registry-mirrors” : [“https://docker.registry.cyou”,“https://docker-cf.registry.cyou”,“https://dockercf.jsdelivr.fyi”,“https://docker.jsdelivr.fyi”,“https://dockertest.jsdelivr.fyi”,“https://mirror.aliyuncs.com”,“https://dockerproxy.com”,“https://mirror.baidubce.com”,“https://docker.m.daocloud.io”,“https://docker.nju.edu.cn”,“https://docker.mirrors.sjtug.sjtu.edu.cn”,“https://docker.mirrors.ustc.edu.cn”,“https://mirror.iscas.ac.cn”,“https://docker.rainbond.cc”,“https://do.nark.eu.org”,“https://dc.j8.work”,“https://dockerproxy.com”,“https://gst6rzl9.mirror.aliyuncs.com”,“https://registry.docker-cn.com”,“http://hub-mirror.c.163.com”,“http://mirrors.ustc.edu.cn/”,“https://mirrors.tuna.tsinghua.edu.cn/”,“http://mirrors.sohu.com/”],“insecure-registries” : [“registry.docker-cn.com”,“docker.mirrors.ustc.edu.cn”],“debug”: true,“experimental”: false}使用docker命令安装FastGPT运行命令docker-compose up -d即可docker根据docker-compose.yml内容自动下载FastGPT及其依赖的镜像进行安装完成后如下这时到Docker Desktop界面中能看到容器列表中已经有fastgpt点进去能看到具体安装的镜像列表例如上面说的PgVector向量数据库等。访问FastGPT此时FastGPT默认已经启动在Windows命令行通过ipconfig查看WSL的ip地址通过端口3000即可访问默认用户名root密码1234。四、模型配置任何一个应用或者工作流都需要配置好模型主要包括大语言模型Embedding模型用于知识库重排模型用于知识库ASR语音识别模型用于接受实时语音输入识别TTS语音合成模型用于把文字转为语音输出这些模型可以是本地部署的也可是是远程的只要通过API方式可被FastGPT调用即可。如果使用过Dify配置很简单只要在管理后台选择对应的模型厂商配置上调用的URL、API key即可。FastGPT比Dify的配置略为复杂支持两种方式AI Proxy和One API。两者都是OpenAI 标准接口的管理 分发系统可以通过标准的 OpenAI API 格式访问所有的大模型。其中AI Proxy适合你已经有阿里百炼、硅基流动等厂商的用户账号的情况阿里就是是Proxy代理角色配置好账号后就能直接使用他们提供的一系列模型。若使用One API需要安装一个One API应用在里面配置上各种模型供FastGPT使用。1、配置AI Proxy渠道本文我使用AI Proxy方式我已有了阿里百炼、硅基流动的API key直接配置使用关于如何申请API key就不说了。在模型渠道中新建渠道协议类型选择阿里云模型选择自己要使用的模型例如大模型使用qwen-long多模态模型使用qwen-vl-maxembedding模型使用text-embedding-v4等代理地址默认就是对的API密钥填上自己申请的API key。ASR和TTS我使用硅基流动的模型配置如下模型选择SenseVoiceSmall、CosyVoice配置完渠道后长这样启用模型到模型配置中通过模型提供商阿里、硅基流动等和模型类型语言模型、语音识别等过滤刚才选择了的模型点击启用可以点右边的“模型测试”就行测试上面会显示测试结果。测试如果失败可能是你的渠道配置、API key有问题。五、使用案例一切已经就绪可以创建应用和工作流了下面是一个简单工作流的例子FastGPT本身的使用方法不是本文的重点。我们使用FastGPT已有的模版创建一个“生活达人”工作流如果问菜谱相关的问题使用大模型回答否则不做解答支持ASR语音实时输入和TTS语音输出。ASR和TTS设置如下语音输入会直接使用上面已配置好的ASR模型。语音合成这里选择了上面配置的TTS模型可选择不同的人物对应的音色。下面可以开始运行上述工作流我们首先使用文字输入接下来使用语音输入你很有可能会遇到“您的浏览器不支持语音输入”的错误原因是浏览器出于安全考虑默认需要用域名访问的URL才支持语音输入而刚才我登录FastGPT使用的是ip。解决方法上面我们使用的ip访问的FastGPT如果能使用localhost就没这个问题但Windows本身的ip和Linux子系统的ip不一致如果用localhost访问的是Windows而不是Linux所以需要让两个系统的ip地址一致。具体方法是在Windows当前用户的目录创建个.wslconfig文件加入内容如下然后重启WSL重启docker和FastGPT通过http://localhost:3000访问就可以了。六、必须说的几件重要的事在Windows上不管是玩FastGPT、Dify还是其他平台确实只是玩玩而已真正要在生产环境用肯定还是要在Linux服务器上用户数多的还要集群、负载均衡、各种备份。FastGPT分为开源社区版和商业版、云服务版。社区版也只是玩玩而已只要需要在公司多用户使用就会涉及用户、权限管理以及和其他系统的SSO单点登录等就需要商业版才能满足了。刚才用localhost解决浏览器支持ASR也是权宜之计正常生产环境需要正式的域名并且配置上https等。安装FastGPT的时候docker-compose.yml中完全使用的默认值包括数据库用户名和密码等实际环境中需要改为安全的值。想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2025 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容2025 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”