2026/4/18 12:35:16
网站建设
项目流程
扬州做网站多少钱,织梦网站模板怎么安装,佛冈县住房和城乡建设局网站,怎么判断网站是不是模板做的雷递网 乐天 1月28日在大模型产业从“训练驱动”走向“推理驱动”的关键拐点上#xff0c;国产GPU厂商正重新审视算力的商业价值与交付方式。1月27日#xff0c;专注于推理 GPU 的曦望#xff08;Sunrise#xff09;发布新一代推理 GPU 芯片启望S3#xff0c;并披露其围绕…雷递网 乐天 1月28日在大模型产业从“训练驱动”走向“推理驱动”的关键拐点上国产GPU厂商正重新审视算力的商业价值与交付方式。1月27日专注于推理 GPU 的曦望Sunrise发布新一代推理 GPU 芯片启望S3并披露其围绕推理场景构建的算力产品体系及共建推理云生态计划。这也是曦望在近一年累计完成约 30 亿元战略融资后的首次集中公开亮相。在国产 GPU 行业逐步从“拼性能参数”转向“拼单位经济性”的背景下曦望选择将战略重心明确锚定在推理算力这一更具长期确定性的赛道。从“拼参数”到“算清账”S3 聚焦推理效率与成本与强调峰值算力和通用能力的训推一体 GPU 路线不同曦望在启望S3 芯片上继续强化其“All-in 推理”的定位。曦望联席CEO王勇在发布会上表示AI 行业正在进入以应用落地为核心的下半场推理逐步超越训练成为主要算力消耗场景。相比训练阶段的一次性高投入推理更强调长期交付能力、单位成本和系统稳定性这也正在改变GPU的竞争逻辑。据介绍启望S3是一款面向大模型推理深度定制的 GPGPU 芯片围绕真实推理负载对芯片架构、存储体系与互联方式进行了系统级设计。相比上一代产品S3 在典型推理场景下的整体性价比提升超过 10 倍。在算力与存储设计上S3 支持从 FP16 到 FP4 的精度自由切换在保证模型效果的前提下显著提升低精度推理效率同时率先在国内 GPGPU 产品中采用 LPDDR6 显存方案显存容量较上一代提升 4 倍缓解了大模型推理中常见的显存瓶颈问题。在DeepSeek V3/R1满血版等主流大模型推理场景中S3 的单位 Token 推理成本较上一代降低约 90%。王勇表示这使“百万 Token 一分钱”从概念走向可规模化部署的工程能力。王勇表示曦望的推理 GPU 并非单点硬件创新而是通过芯片架构、软件体系与算力交付方式的一体化设计将硬件能力稳定转化为可交付、可计价的推理算力。目前曦望已构建与CUDA兼容的基础软件体系支持推理应用低成本迁移与持续优化相关能力已覆盖 ModelScope 平台 90% 以上主流大模型形态。围绕启望 S3曦望同步发布了面向大模型推理的寰望 SC3-256 超节点方案可高效支撑 PD 分离架构与大规模专家并行EP部署适配千亿、万亿级参数的多模态 MoE 推理场景。在交付形态上寰望 SC3 采用全液冷设计核心能效指标PUE表现极致。曦望方面表示在同等算力规模下该方案的整体交付成本控制在千万元级别相较行业内同类亿元级方案降低一个数量级。同时曦望还推出覆盖 PCIe、OAM 模组、一体机及 AI 计算集群在内的 S3 产品矩阵覆盖从单机推理到大规模集群部署的多样化需求。不只卖芯片重构算力交付的推理“云模式”如果说 S3 回答的是“推理算力如何更便宜”那么曦望共建的推理云计划则进一步指向“算力如何更好用”。随着推理逐渐成为大模型算力消耗的主要来源推理算力在实际落地中普遍存在资源碎片化、运维复杂、成本不可预测等挑战。相比训练阶段的一次性投入推理更强调持续交付能力与长期单位成本这也对算力交付方式提出了新的要求。在此背景下曦望通过生态共建推理云视为其推理算力体系中的关键一环。依托自研推理 GPU曦望实现从底层芯片到上层平台的全栈优化将硬件能力以平台化方式稳定释放从而降低模型适配和系统部署复杂度形成面向应用落地的完整算力交付路径。曦望联席 CEO 王湛表示新一代的AI算力平台应具备软硬件深度协同、资源利用高度弹性、技术门槛低且运行稳定可靠等特征。基于这一判断曦望通过云化方式对算力交付模式进行重构使推理算力从“设备能力”转化为可标准化、可规模化的服务能力。据介绍共建推理云以启望 S3 为底座通过 GPU 池化与弹性调度将分散的算力资源整合为统一的推理算力池并以 MaaSModel as a Service作为核心入口向企业提供开箱即用的大模型推理服务。企业无需关注底层硬件配置和集群运维即可按需调用模型能力并根据业务负载灵活扩展算力规模。在稳定性与运维层面共建推理云在千卡级集群场景下可用性达到 99.95%横向扩展效率超过 95%。在这一目标之下曦望联合商汤科技、第四范式等生态伙伴共同发起“百万 Token 一分钱”推理成本计划。曦望方面表示该计划并非单一产品能力的展示而是多方围绕推理算力成本形成的协同共识标志着大模型推理正在从“技术可行”走向“经济可行”为 AI 应用规模化落地提供清晰的成本锚点。推理算力走向“系统工程”生态协同成关键变量随着推理算力竞争从单点技术走向系统工程能力比拼产业协同的重要性日益凸显。中国工程院院士、浙江大学信息学部主任吴汉明在发布会上表示推理时代的算力竞争已演进为涵盖芯片、系统架构、软件平台和应用场景的综合能力竞争需要构建从芯片到系统、从技术到应用的完整创新链条。发布会现场曦望与浙江大学签署战略合作协议联合成立“智能计算联合研发中心”围绕光互连 GPU 超节点架构、半导体虚拟制造计算光刻以及 AI 高精度气象预测等前沿方向展开协同研究。此外曦望还与中交信科集团、杭钢数字科技、浙江算力科技、三一集团、协鑫科技等企业达成战略合作推动推理算力在交通、制造、医疗等行业的落地应用。曦望董事长徐冰表示随着大模型进入规模化应用阶段AI 产业正从“训练驱动”转向“推理驱动”。相比一次性投入巨大的训练推理更强调长期交付能力、单位成本和系统稳定性。他指出曦望并不希望只做一家卖芯片的公司而是围绕推理场景构建“芯片系统生态”的整体布局让推理算力真正成为可规模化、可持续的基础设施。2025年曦望芯片交付量已突破万片。“谁能持续降低推理成本谁就掌握了 AI 产业的成本曲线。”徐冰表示曦望希望通过推理算力体系的系统性创新助力 AI 应用实现规模化落地与可持续增长。——————————————雷递由媒体人雷建平创办若转载请写明来源。