2026/4/18 2:24:20
网站建设
项目流程
吉安做网站,大数据比赛网站建设,制作音乐app,做游戏的网站#x1f62d; 前言#xff1a;明明启动了#xff0c;为什么连不上#xff1f;
你是否遇到了这种情况#xff1a;
在终端输入 ollama run deepseek-r1 能正常对话#xff0c;但当你试图用 Dify、Open WebUI 或者 Python 脚本 调用 API 时#xff0c;却报错#xff1a;Er… 前言明明启动了为什么连不上你是否遇到了这种情况在终端输入ollama run deepseek-r1能正常对话但当你试图用Dify、Open WebUI或者Python 脚本调用 API 时却报错Error: Connection refusedurllib3.exceptions.MaxRetryError: HTTPConnectionPool(hostlocalhost, port11434)这是因为 Ollama 默认采用了**“自闭模式”**。出于安全考虑它默认只监听127.0.0.1本机回环地址。这意味着同一台机器的外部 IP 访问拒接。局域网其他电脑访问拒接。Docker 容器如 Open WebUI访问宿主机拒接。我们需要让 Ollama “敞开心扉”。 故障诊断图在动手前先看一眼你的请求死在了哪里宿主机 (Ollama 所在机器)请求 http://x.x.x.x:11434放行127.0.0.1 (默认)192.168.x.x (局域网)No (默认)Yes (OLLAMA_HOST)你的客户端 (WebUI/Python)防火墙/代理网卡接口✅ 本地终端能通❌ 监听 0.0.0.0 ? Connection Refused✅ 连接成功️ 方案一最基础检查 —— 服务真的活著吗别笑50% 的报错是因为你关掉了终端。Ollama 分为“客户端”和“服务端”。当你关闭命令行窗口时服务可能也随之关闭了。检查方法Windows/Mac: 检查任务栏有没有 Ollama 的小羊驼图标。Linux: 运行命令systemctl status ollama。解决如果你没有后台服务请打开一个新的终端窗口单独运行ollama serve保持这个窗口不要关闭然后再尝试连接。 方案二进阶必杀 —— 配置OLLAMA_HOST(解决 Docker/局域网访问)这是最核心的解决方案。我们需要设置环境变量OLLAMA_HOST0.0.0.0让 Ollama 监听所有网络接口。1. Windows 用户Windows 无法直接在终端set就完事需要在系统层面设置。退出 Ollama在任务栏右键小图标 - Quit Ollama。设置环境变量打开“设置” - “系统” - “关于” - “高级系统设置”。点击“环境变量”。在“用户变量”或“系统变量”中点击“新建”。变量名OLLAMA_HOST变量值0.0.0.0(或者0.0.0.0:11434)重启 Ollama重新运行 Ollama 应用程序。2. Mac 用户Mac 需要使用launchctl来设置服务变量。打开终端输入launchctl setenv OLLAMA_HOST0.0.0.0重启 Ollama应用。3. Linux (Systemd) 用户如果你是用安装脚本安装的Ollama 是作为 systemd 服务运行的。编辑服务配置sudosystemctl edit ollama.service在打开的编辑器中添加以下内容[Service] EnvironmentOLLAMA_HOST0.0.0.0保存退出并重启服务sudosystemctl daemon-reloadsudosystemctl restart ollama️ 方案三隐形杀手 —— 代理与端口冲突如果你配置了 0.0.0.0 还是连不上通常是以下两个“内鬼”在作祟。1. 代理软件干扰很多开发者开着代理软件拉模型代码里请求localhost时流量被代理软件拦截并转发到了代理服务器导致连接失败。解决在你的 Python 代码或环境变量中显式通过NO_PROXY绕过本地地址。importos# 告诉程序访问本地及其端口别走代理os.environ[NO_PROXY]localhost,127.0.0.1,0.0.0.0# 然后再 import 其他库importrequests2. 端口 11434 被占用也许你启动了两个 Ollama 实例或者其他 AI 服务占用了默认端口。检查命令 (Windows):netstat-ano|findstr 11434检查命令 (Mac/Linux):lsof-i:11434解决如果发现端口被占你可以通过设置OLLAMA_HOST换一个端口例如OLLAMA_HOST0.0.0.0:8888 总结90% 的“Connection refused”都可以通过**方案二设置 OLLAMA_HOST0.0.0.0**解决。本机玩确保ollama serve在运行。Docker/局域网玩配置环境变量OLLAMA_HOST0.0.0.0。开了 VPN记得配置NO_PROXY。DeepSeek 很强别让这小小的网络门槛阻挡了你通往 AGI 的道路。Next Step:服务跑通了下一步建议部署一个Open WebUIDocker 一键部署给你的 DeepSeek 穿上一层漂亮的 ChatGPT 风格外衣体验直接起飞