2026/4/18 16:35:38
网站建设
项目流程
h5微网站建设多少钱,最有效的网站推广方法,做兼职网站的主要参考文献,新网站做seoMeta刚掏出20亿美元把Manus收入囊中的同时#xff0c;一份名单也随即在VC圈疯传——
“1亿美元ARR俱乐部”。
上榜公司不多#xff0c;但个个鼎鼎大名#xff1a;
Perplexity#xff1a;200亿美元ElevenLabs#xff1a;66亿美元Lovable#xff1a;66亿美元Replit…Meta刚掏出20亿美元把Manus收入囊中的同时一份名单也随即在VC圈疯传——“1亿美元ARR俱乐部”。上榜公司不多但个个鼎鼎大名Perplexity200亿美元ElevenLabs66亿美元Lovable66亿美元Replit30亿美元Suno25亿美元Gamma21亿美元Character10亿美元Manus5亿美元HeyGen5亿美元以上数据代表公司估值随便单拎一个出来都是如今炙手可热的存在。△图片由AI生成1亿美元ARR不过是它们交给硅谷的入场券。但要知道这个数字对绝大多数初创公司来说都是从0到1的绝对天堑。要厘清这一问题不妨先回到ARR的定义上。它指的是产品一年之内稳定的收入即可重复、可持续的真实收入。它反映了一家AI公司最关键的问题到底有没有人愿意为你的AI长期付费显然上榜的这几家公司已经收获了自己的粘性用户群体。而且无一例外它们都不是Big Labs。事情变得有趣起来正如网友所说从基础模型转向消费者产品是今年最显著的趋势ToC端是新的黄金。“1亿美元ARR俱乐部”成员可划分为5大类事实上上榜者并非离散的孤例。全局盘点之下可以清晰地发现它们已然衍生出主要5类商业路径第一类是AI搜索/信息服务。以Perplexity为代表通过AI搜索引擎直接重构用户获取信息的方式。Perplexity成立于2022年8月。今年3月其CEO Aravind Srinivas正式官宣产品ARR突破1亿美元大关。第二类是音频/语音基础能力产品。典型例子是ElevenLabs不直接面向普通消费者而是成为众多应用背后的AI语音引擎典型的AI Infra路线。成立于2022年虽然并未对外披露1亿美元ARR的具体时间点但在今年9月宣布启动1亿美元的员工股权回购计划时正式宣布ARR已超过2亿美元并预计年底前达到3亿美元。第三类是Vibe Coding/开发工具。Replit和Lovable代表的则是新的Vibe Coding趋势让更多非技术用户进入开发领域。其中Replit成立于2016年并在今年6月宣布ARR破1亿美元较2024年底的1000万美元实现了10倍增长。Lovable则是在2023年正式成立并在今年7月正式宣布ARR破1亿随后又在11月更新了这一数据来到了2亿美元ARR成为增长最快的AI编程工具之一。第四类是内容/办公效率工具。Gamma是这一类的代表瞄准的是用户最刚需的办公场景——做PPT、写文档等。它成立于2020年同样也是在今年11月宣布ARR突破1亿美元同期还完成了由A16Z领投的B轮6800万美元融资。第五类是生成式娱乐内容。Suno和HeyGen则走向另一条路线不直接提高效率而是通过音乐、视频拓宽用户的娱乐边界。其中Suno成立于2022年援引知情人士透露10月份公司ARR已达成1亿美元。HeyGen成立于2020年也是最早一批进入视频生成领域的初创公司在今年10月其创始人Joshua Xu在官宣首次达到1亿美元ARR。补充一个小tips像Replit这种明确写年化收入的严格讲不等于ARR。无一例外全部ToC看到这儿最值得划重点的一点出现了这批跨过门槛的“俱乐部成员”清一色都是ToC的。这个结论本身就带着强烈的信号*在很多人的直觉里企业服务更愿意付费、更讲效率、更有预算似乎更容易做出大收入*。背后原因和AI产品所处的阶段有关也和ToC的运行机制有关。AI 2.0方兴未艾用户对产品的容忍度还很高。每一次迭代都可能给用户带来新的惊喜用户愿意持续付费。当然另一个隐藏的致命打击伴随而来用户粘性其实并不高谁好用我就赶紧撇下原本的心头宝高高兴兴拥抱新产品去了。但整体而言其实用户今天试用明天续费后天流失也不是什么坏事。在AI早期我们不妨把它看作一种优势它让产品用最短的时间获得最真实的反馈。所以走ToC这条路能让团队迅速收到反馈高速试错快速调整。当行业处在高速不确定期快本身就是优势。与此同时ToC的规模效应对AI应用的单位经济学有一种倒逼机制。这就不得不回到ARR这个话题来。AI 2.0时代1亿美元ARR这条线天然自带一条更朴素的约束AI-Native应用的生意逻辑天然带着推理成本这根计价绳。传统互联网产品一旦完成研发边际成本往往趋近于零。用户多一倍成本未必跟着多一倍很多产品因此可以用规模来摊薄成本再用摊薄后的利润去换更大的规模。AI-Native应用走的是另一条路。每一次响应、每一次生成、每一次多轮对话都在消耗推理成本。用户增长得越快调用就越频繁算力账单上的数字就开始光速膨胀。这就迫使团队不得不更早地去思考从长期视角来看用户带来的价值增量能不能跑赢token和算力的消耗速度。否则规模会把产品推向一种很尴尬的状态——好消息收入在涨坏消息成本同样在涨甚至涨得更快*摊手.jpg*。巨头们可以用别的现金奶牛来给AI产品不停输血但创业公司就只有自己想方设法长期造血了。要么客单价足够高高到可以覆盖每一次推理的成本并且为持续迭代留出空间要么推理链路持续迭代到更短把“多轮、重推理”压缩成“少轮、轻推理”让同样的付费收入对应更低的算力消耗。总之就是必须找到成本与收入同向的营收方式。从某种角度来说于这些应用背后的AI创企而言商业模式或许比技术、功能更像条护城河。当然其中不乏一层更外部的因素。不管是资本市场还是媒体侧、用户侧都很喜闻乐见ToC产品和创业公司出爆款的故事。这一点咱们今天在这儿就不做赘述了。几个月复刻个Manus呗AI世界里这笔账并不划算之所以Perplexity、Replit、Manus都愿意站出来宣告自己达到“1亿美元ARR”一定程度上是这个数字的确拿得出手。往深了说它证明这些AI产品阶段性站稳了脚跟。对ToC产品来说这意味着它不再完全依赖短期热度驱动增长而是开始拥有某种持续运转的内生动力。这也是Meta愿意买Manus的原因之一。很多人说Manus出来第二天开源社区就有了OpenManusMeta有钱有人有资源看上了Manus咋就不自己在内部迅速copy一个类似的应用呢归根结底主要是这么做真的不划算。产品层面AI迭代速度太快技术、成本、需求、能力边界都在变化今天看起来可以复刻的形态几个月后可能已经被用户标准刷新。你自己做的这段时间Manus都又跑出几里地去了。而且AI产品的竞争还要争夺快速固化用户心智的窗口期。从Meta的视角出发我自己在消费级AI产品上没有一个拿得出手的爆款现在有一个经历过市场验证的Manus摆在我面前价钱还不贵*与Perplexity等相比*。那不如掏钱买了吧于是可以顺理成章把双方各自擅长的东西拼在一起——Meta有平台有更强的触达能力还有更高效的流量组织Manus有清晰的付费逻辑现成的粘性用户已经做过几个月更贴近用户的体验打磨。双方都能各自把长板用到极致。一夜之间Meta就拥有了成熟的AI付费业务。何况买回来的不只是Manus这个产品 。Meta想收购不仅是Manus这个产品还有这个能做好AI应用的人才团队。你看Manus创始人兼CEO肖弘不就被扎克伯格任命为副总裁把Manus的通用Agent能力整合进Meta AI、WhatsApp、Instagram等产品稍带手推动商业化去了嘛……如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】