Jump to content
Main menu
Main menu
move to sidebar
hide
Navigation
Main page
Recent changes
Random page
freem
Search
Search
Appearance
Create account
Log in
Personal tools
Create account
Log in
Pages for logged out editors
learn more
Contributions
Talk
Editing
AI行研
Add languages
Page
Discussion
English
Read
Edit
Edit source
View history
Tools
Tools
move to sidebar
hide
Actions
Read
Edit
Edit source
View history
General
What links here
Related changes
Special pages
Page information
Appearance
move to sidebar
hide
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
'''引言:在生成式人工智能浪潮中,不同产业链环节的盈利状况出现明显分化——研发“大模型”的公司投入巨额资金却难以盈利,面向终端用户的应用尚未找到清晰的变现模式,而提供算力的硬件厂商和云服务渠道商却赚得盆满钵满。这种现象从数据上也可见端倪:有分析指出 AI 行业在训练高阶模型上用于购买 NVIDIA 芯片的支出高达 500 亿美元,但同期由这些模型产生的直接收入却仅有 30 亿美元左右''' (Cognition Labs Seeks $2B Valuation | Hacker News)。本文将深入分析这一现象,探讨AI产业链各环节的利润分布、不同行业玩家的商业模式与盈利状况、当前面临的挑战,以及未来可能的趋势。 == 1. AI 产业链利润分布 == AI产业链可分为'''大模型研发'''、'''终端应用'''、'''底层硬件'''和'''渠道服务'''等环节,各环节盈利能力受其投入产出结构和市场格局影响: * **大模型研发(Model Development):**这一环节目前利润率最低甚至常年亏损。研发前沿大模型需要巨额算力和顶尖人才投入,训练和部署成本惊人。例如OpenAI在2023年预计营收约37亿美元却亏损近50亿美元,日常运行ChatGPT一度花费约70万美元/天 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。其竞争对手Anthropic情况类似,'''2024年计划支出超过27亿美元,但全年收入预期仅约8亿美元''' (OpenAI and Anthropic lose billions on AI development and operations)。模型研发公司的成本结构中,算力采购是最大开支且主要供应商集中于NVIDIA,使得供应商具备极强的定价权 (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发))。同时模型本身同质化竞争激烈,开源大模型的出现让客户更换模型的壁垒很低,模型提供商难以掌控定价权和用户忠诚度 (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发))。这些因素导致大模型研发环节盈利困难。 * '''终端应用(Applications):这一环节目前变现能力不明显,大量AI应用仍处于探索流量和用户阶段,直接盈利模式尚不清晰。许多面向消费者的AI功能以免费或附加服务形式提供,例如微软将新Bing的GPT聊天功能免费开放给搜索用户,以期提升市场份额(其主要营收仍依赖搜索广告) (Microsoft is charging fees for some Bing and Office AI tools - Quartz)。又如OpenAI面向个人用户的ChatGPT,免费版本居多,付费订阅(如ChatGPT Plus和面向企业的Pro版)价格相对低且难以覆盖高额算力成本,甚至出现定价远低于使用成本的情况——每月200美元的ChatGPT Pro服务由于用户调用量超预期,运营成本仍高于订阅收入 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。企业级应用方面,许多公司将大模型视为提升现有产品价值的附加功能(如办公套件中的AI助手),而非独立收费产品。加之用户付费意愿有待培养、效果难以量化衡量,不少AI应用尚未找到成熟的盈利模式。Gartner的研究预测,到2024年底约三分之一的生成式AI项目将在概念验证后放弃,原因正是成本上升且商业价值不明''' (How costs, ROI shape generative AI adoption plans | CIO Dive)。 * '''硬件(Hardware):''' AI热潮下,提供算力支撑的芯片和设备厂商成为最大赢家之一,'''硬件环节实现了高额利润'''。以GPU龙头NVIDIA为代表,其数据中心级AI芯片供不应求,业绩飙涨。2024财年第三季度NVIDIA数据中心业务收入达到308亿美元,同比大增112% (NVIDIA Announces Financial Results for Third Quarter Fiscal 2025 | NVIDIA Newsroom);公司季度总营收创下351亿美元的新高,净利润同比增长6倍以上。这种爆炸式增长得益于各大科技公司和云服务商争相采购其高端GPU用于大模型训练。其他芯片企业也从中受益:AMD加大对MI300等AI加速器的投入,试图争取市场份额;传统CPU巨头Intel则通过推出AI优化的CPU和收购Habana开发AI专用芯片来参与竞争。中国的硬件厂商如华为也投入巨资研发昇腾AI芯片,在国内替代受限的英伟达产品。整体来看,高性能AI芯片领域壁垒高、'''供应高度集中(如几乎所有高端AI加速芯片均由台积电代工生产)''' (Exploring opportunities in the gen AI value chain | McKinsey)。这种市场格局赋予领先硬件厂商强大的议价能力和丰厚毛利,使其在AI产业链中占据利润高地。 * '''渠道与算力服务(Cloud/Channels):云计算平台和各类渠道服务商也在AI热潮中实现稳健盈利。云服务商通过出租算力、提供AI开发平台等方式,从大模型浪潮中持续获利。一方面,云厂商作为中间商,大规模采购硬件后按需计费出租算力,赚取差价''',实现“稳赚不赔”的生意;另一方面,大模型研发和应用部署越来越依赖云平台,带动云服务收入攀升。2024年以来三大云厂商业绩亮眼:微软智能云季度收入351亿美元,同比增长23%;谷歌云季度收入95.7亿美元,同比增长28%;AWS季度收入250亿美元,同比增长17% (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows)。各家管理层都将AI视为云业务增长的关键驱动力,'''AI相关服务需求让云基础设施市场持续扩张''' (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows)。例如微软CEO纳德拉透露,受AI推动,Azure 1亿美元以上的大单数量同比增加了80% (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows)。除了云厂商,传统IT渠道商和解决方案集成商也通过销售AI服务器、提供大模型落地咨询等方式获取稳定收益。相较模型开发的高风险高投入,渠道环节以服务收费和硬件加价为主,成本和风险更可控,因此盈利更加稳健。 == 2. 企业案例分析 == 围绕上述产业链各环节,我们选取代表性企业剖析其商业模式与盈利现状。 === 模型研发公司 === * **OpenAI:**作为生成式大模型热潮的引领者,OpenAI的商业模式以API付费调用和订阅为主,并通过与微软深度合作将GPT模型嵌入Office、Azure等获取授权收益。然而高昂的研发和算力支出使其财务压力巨大。2023年OpenAI据报道收入约数十亿美元但亏损高达数十亿美元 (OpenAI and Anthropic lose billions on AI development and operations)。内部测算显示,训练GPT-4等模型单次费用高达数千万美元,ChatGPT产品的运营成本也极其高企 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。尽管有微软投入的巨额资金支撑,OpenAI迄今尚未实现盈利 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。CEO Sam Altman 已多次坦言需要探索更可持续的盈利模式,例如提高API定价、推出更高价的新服务等 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。 * **Anthropic:**这是一家专注AI安全和大模型的创业公司,推出了对标ChatGPT的Claude模型。Anthropic获得了包括Google、亚马逊在内的大笔投资,但同样面临烧钱难盈利的处境。'''据报道Anthropic 2024年预计支出超27亿美元,收入不到10亿美元''' (OpenAI and Anthropic lose billions on AI development and operations)。其商业模式类似OpenAI,通过提供模型API和企业定制服务变现,同时与Google Cloud和AWS合作换取资源支持(如亚马逊承诺高额云计算采购以换取股权)。Anthropic目前仍在投入期,寄望凭借模型差异化(如更长上下文、更高安全性)吸引付费企业客户,实现收支平衡。 * '''Google DeepMind:谷歌将原Google Brain与DeepMind合并,形成新的通用AI研发部门。作为搜索和广告巨头,谷歌布局大模型更多是战略防御和生态完善,其盈利主要通过母公司现有业务间接实现。Google开发了PaLM、Bard等大模型,近期又发布了多模态的Gemini模型,主要用于增强自家搜索、云服务和生产力工具的竞争力。谷歌在AI研发上的投入非常巨大,2023年因AI相关开支导致营业利润率一度下降,但管理层明确表示“在AI上宁可过度投资也不能投资不足'''” (OpenAI and Anthropic lose billions on AI development and operations)。Google Cloud现已提供大模型API和定制化服务,吸引企业付费使用其模型能力,加上云基础设施租用费,这部分开始贡献收入。2023年谷歌云业务在AI带动下同比增速达到35%,并在多年亏损后实现季度盈利 (How AI Surged Google Cloud's Revenue Growth)。总体而言,Google DeepMind本身不直接盈利,其价值体现在支撑谷歌核心业务的长期增长。 * **Meta(Facebook):**Meta在大模型领域采取开放开源的策略,先后开放了LLaMA系列模型权重供研究社区使用。Meta的主要收入来自社交平台广告和元宇宙等业务,短期并未试图通过销售大模型服务盈利。相反,开放大模型有助于树立行业影响力,并催生围绕自家模型的应用生态,从而间接巩固Meta平台的内容和用户黏性。Meta的大模型研发投入同样可观,但选择了与开源社区协同的商业模式。这在一定程度上冲击了试图商业化模型的同行:'''Meta几乎免费将数十亿参数模型投放市场,降低了付费模型的独占价值''' (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发))。不过Meta也在探索将生成式AI融入旗下产品(如Instagram生成表情包、WhatsApp智能助手等)提升用户体验,未来可能通过增值服务或提升广告定价来变现AI功能。 * **百度:**作为中国领先的搜索和AI公司,百度近年押注大模型“文心大模型”(含对话产品文心一言等)。百度的商业模式是“双轨”——一方面将大模型能力赋能自家搜索、信息流和广告业务,提升变现效率;另一方面通过百度智能云向企业提供大模型服务和解决方案。百度CEO李彦宏透露,'''文心一言已开始带来增量收入,预计2024年将贡献数十亿元人民币的新收入,主要来自广告业务优化和AI云服务销售''' (李彦宏:文心一言将在2024年贡献数十亿元的增量收入 - 网易)。这意味着百度并非直接售卖文心模型获取费用,而是通过加强广告定向投放(提升广告转化,使客户愿意付更高广告费)以及吸引企业上云使用其AI平台来变现。目前百度智能云已推出文心大模型API、定制训练等服务,并报告2024年云业务收入同比大增近3倍 (百度智能云:AI收入增长近3倍,引领未来云服务新纪元 - 新闻)。虽然文心大模型尚未独立盈利,但其带动的周边业务增长正在显现。 * '''华为:华为在AI领域同时扮演模型研发和硬件提供双重角色。其推出的“盘古大模型”涵盖NLP、CV等多领域,目标是赋能金融、制造、医疗等行业解决方案。华为的大模型主要用于提升其ICT产品附加值和支持华为云的AI服务,并不直接对公众提供开放接口盈利。然而,华为在AI上的投入有助于拉动其硬件和云服务销量'''。一方面,华为研发了昇腾系列AI芯片和配套算力集群(如Atlas),将自研大模型部署其上,以展示硬件性能,从而推动芯片和AI基础设施的市场销售。另一方面,盘古模型等提升了华为云AI能力,吸引政企客户选择华为云做AI项目部署。在美国技术限制背景下,华为提供“软硬一体”的国产AI方案,有望占据国内市场份额并获得稳定收益。总体而言,华为依靠其多元业务支撑AI研发投入,模型本身更像是带动硬件与云服务盈利的“引擎”。 === 终端应用公司 === * '''微软(Microsoft):作为传统软件巨头,微软在AI时代通过投资OpenAI和自主研发,迅速将大模型融入其核心产品。微软的商业模式是在自身庞大用户基础上增值收费''':例如在Office 365中引入“Copilot”AI助手并计划额外收费,每位企业用户每月收费高达30美元,这将直接提高Office订阅ARPU值。又如GitHub Copilot编码助手,采取付费订阅制,已吸引数百万开发者付费。另一方面,微软在必应(Bing)搜索中集成GPT聊天提升体验,虽对消费者免费,但希望借此提高搜索市场份额和广告营收 (Microsoft lays out its initial advertising plans for the A.I.-powered Bing)。目前来看,微软已成功将AI转化为新的收入来源:2023年其商用Office产品线因Copilot预售等因素而提价,Azure云也因为OpenAI服务吸引了大量付费客户。值得注意的是,微软身兼“终端应用提供商”和“渠道商”双重身份——通过Azure OpenAI服务向第三方出售模型能力,也是其盈利重要部分 (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows)。总体而言,微软凭借先发优势,正实现从AI技术中多渠道变现,助力公司营收增长和长期竞争力。 * '''字节跳动(ByteDance):这家公司旗下拥有抖音/TikTok等现象级应用,本身以算法见长。字节跳动在生成式AI应用上动作相对低调,主要将AI用于内容创作和内容分发优化。例如抖音上线AI創作工具(如AI头像、AI字幕)、火山引擎云服务提供大模型接口等。但这些应用多半免费提供给用户以增强体验,字节的主要收入仍来自广告和电商佣金。AI的价值更多体现在提高用户参与度和广告定向效率''',从而间接提升变现能力。例如更精准的内容推荐和广告匹配带来更高广告转化率,这种收益难以直接量化到AI模块。字节跳动也在尝试企业向服务,如推出面向企业的智能创作平台等,但目前规模有限。总的来说,字节跳动将大模型作为强化内容生态的工具,短期内未单独商业化AI,但AI已成为其维系用户和广告优势的基础设施。 * '''阿里巴巴:阿里将大模型应用于电商、客服和云计算等多个场景,探索多元变现路径。在2C方面,阿里在淘宝应用了生成式AI来自动生成商品描述、搭配文案,提升商家运营效率;在支付宝等应用中引入AI助手提升用户服务。这些举措主要是留存商家和用户''',未直接收费。在2B方面,阿里云推出通义千问大模型对外提供API服务和行业解决方案,收费模式按调用量或订阅计费,成为阿里云吸引客户的新卖点。阿里巴巴管理层曾表示希望大模型在未来成为云业务的新增长点,带来明显收入贡献。据报道,通义大模型发布后已有上千家企业测试接入。虽然当前阿里云的收入体量中AI服务占比不大,但增速亮眼,阿里2023年云业务增速恢复两位数就是因AI驱动 (百度的AI规模起来了:文心大模型日调用量达15亿 - QQ News)。此外,阿里在钉钉办公系统中集成大模型助手(如智能写作、会议纪要),可能通过'''企业增值服务'''收费。整体而言,阿里巴巴正将AI融入电商、金融、云等生态中,近期以'''间接变现'''为主(提升交易额、云租户等),长期期待直接的SaaS订阅和算力租用收益。 * '''腾讯:腾讯拥有微信、QQ等海量用户应用,以及游戏、金融科技等业务。腾讯于2023年推出混元大模型,定位为底层能力向各业务赋能。当前腾讯将生成式AI主要用于增强产品体验:如在QQ音乐推出AI歌手,微信测试智能助手,腾讯文档集成智能润色等。这些终端应用功能多为免费提供,旨在巩固用户黏性和使用时长''',从而保障腾讯广告和增值服务收入。腾讯也计划将混元模型通过腾讯云开放给企业,按需收费。2023年9月腾讯宣布混元对外开放后,有数万开发者申请使用其API,一些银行、媒体等成为首批企业客户。虽然收费转化率未知,但这代表腾讯尝试以'''云服务模式'''出售AI能力。游戏领域,腾讯也在探索用大模型生成游戏内容、NPC对话等提升游戏可玩性,未来或将开发者工具或升级体验包装为新卖点收费。总体看,腾讯将大模型视为提升现有业务价值的技术,中期通过云和行业解决方案寻找变现机会,短期内对营收的直接贡献仍不明显。 === 硬件厂商 === * '''NVIDIA(英伟达):无可争议的AI算力供应王者。随着“大模型热”引爆算力需求,NVIDIA的A100、H100系列GPU成为各大公司抢购的“水桶金”。2023年以来NVIDIA业绩屡创新高:2024财年Q3季度营收351亿美元,同比增长94%,其中数据中心业务(主要是AI芯片)同比猛增112% (NVIDIA Announces Financial Results for Third Quarter Fiscal 2025 | NVIDIA Newsroom),带来巨额利润和现金流。NVIDIA之所以能赚取超额利润,一方面在于其在高端GPU市场的垄断性技术领先,使其拥有接近完全的定价权''' (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发));另一方面,生成式AI的爆发令供不应求局面长期存在,GPU售价和溢价水涨船高。在中国市场,由于出口管制,NVIDIA推出性能略降的特供型号(A800/H800),依然需求旺盛。除了卖芯片本身,NVIDIA还通过软件生态(如CUDA加速库、AI开发框架)绑定客户,形成持续收入。可以说,只要大模型训练和部署需求增长不止,NVIDIA在产业链中'''躺赢'''的地位短期无虞。 * **AMD:**作为GPU领域的老二,AMD近年加大对AI加速器的投入,希望分享AI硬件红利。其MI200/MI300系列数据中心GPU在2023年下半年开始被超大规模数据中心采用(如有传闻微软预订大量MI300用于其AI集群),同时AMD提供性价比更高的GPU方案以争夺部分中端市场。虽然AMD目前在AI芯片市场份额远不及NVIDIA,但AI热潮也推动了AMD相关业务增长,2023年AMD数据中心部门营收有所提升。AMD的优势在于与大型云厂商合作推出定制芯片(如与谷歌云合作开发GPU实例),并且CPU业务(EPYC霄龙处理器)也从AI服务器扩张中获益。整体来看,AMD正处于奋力追赶阶段,其能否在盈利上更上一层楼取决于后续产品性能及生态能否挑战NVIDIA地位。 * **Intel(英特尔):**作为芯片巨头,Intel在AI专用加速硬件上相对滞后。其优势是CPU在通用计算市场仍占主导,许多AI推理任务仍运行在Intel至强CPU上,为其贡献销售。但是在大模型训练所需的GPU/加速卡市场,Intel份额甚微。为扭转颓势,Intel收购了Habana Labs推出Gaudi系列AI训练芯片,并开发GPU产品线(如Ponte Vecchio)瞄准高性能计算。但这些产品在市场影响力有限,对Intel财务贡献不明显。好在AI浪潮下,对算力的总体需求增长也拉动了CPU服务器出货,2023年下半年Intel数据中心部门业绩有所回升,其中宣称新的至强处理器在AI推理方面性能提升。这意味着Intel通过在CPU中集成AI加速指令(如AMX单元)等方式留住了一部分AI工作负载。不过要在“大模型”硬件红利中大赚,Intel还需要推出有竞争力的GPU/ASIC产品。目前其盈利仍主要依赖PC和服务器CPU的传统业务,AI芯片业务更多是战略投入。 * '''华为等国内厂商:在美国对华高端芯片管制的背景下,中国厂商也加紧布局AI硬件以填补空白。华为的昇腾AI芯片(如昇腾910、昇腾310等)在国内多家AI云和科研院所中部署,用于训练本土大模型。此外,阿里平头哥推出含光800推理芯片、寒武纪科技推出思元系列AI芯片、百度研发昆仑芯片,这些国内方案逐步商用。虽然短期性能上仍与NVIDIA有差距 (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发))、生态也不够成熟,但在政策和市场扶持下,本土AI芯片销量开始提升,为相关厂商带来收入。例如某些云厂商推出“全国产AI算力”服务,采用华为/寒武纪芯片,定价较高但赢得政府订单。这类硬件公司的盈利模式是典型的TO B销售''':依靠大客户批量采购实现收入。目前来看,华为等公司的AI芯片业务还在投入期,尚未成为利润主力,但在特定市场已经实现销售突破。随着国产替代进程和AI需求扩张,国内硬件厂商有潜力在部分细分领域形成稳健的盈利来源。 === 云计算与AI算力提供商 === * '''亚马逊 AWS:作为全球最大云服务商,AWS在AI兴起中既是算力提供者也是AI方案集成者。AWS通过提供弹性的GPU/TPU云实例、机器学习平台SageMaker以及最新的Bedrock大模型托管服务,将AI能力包装为易于按需获取的服务售卖给企业。其盈利模式一方面是算力租赁'''(客户使用EC2 P4等GPU实例按时计费,AWS从中获取可观毛利),另一方面是'''增值服务费'''(如托管大模型收取额外费用)。2023年以来,AWS受宏观经济影响增速一度放缓,但AI需求成为新的增长引擎。AWS公布其生成式AI相关的云服务订单激增,并与多家大客户签订长期合同共同构建AI解决方案。例如AWS与Anthropic达成战略合作,Anthropic不仅获得资金也承诺在AWS上消耗一定额度的算力。凭借先发的市场规模和丰富的服务,AWS在AI浪潮中获取的收入和利润增长相对稳健。母公司亚马逊也在开发自研AI芯片(Trainium推理芯片等)降低内部成本,进一步巩固AWS云在AI时代的利润率。 * '''Microsoft Azure:微软的Azure云因与OpenAI捆绑而成为AI时代炙手可热的平台。微软的大模型即服务策略明确:将OpenAI最先进的模型(GPT-4等)通过Azure OpenAI Service提供给企业客户,并叠加微软自有的AI模型和工具,形成完善的企业AI解决方案。Azure通过订阅和用量费'''从中收回投资,并带动其云基础设施租用。事实证明此举成效显著,Azure在2023年下半年迎来企业大单潮,1000万美元以上的云合同数量同比翻倍 (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows)。很多传统Azure客户增加了AI服务用量,新客户也因为OpenAI模型接入而选择Azure。这直接促进了微软智能云业务收入与利润的增长。同时,微软还推出了Bing Chat Enterprise等面向商用的AI服务,以每用户每月5美元计费 (Microsoft is charging fees for some Bing and Office AI tools - Quartz),为云业务开辟新的收费点。Azure整体的盈利模式较成熟——先由规模效应降低单位算力成本,再通过丰富的AI功能提升溢价和客户黏性,实现持续盈利。得益于此,微软声称“AI将驱动下一波云业务增长”,Azure有望长期保持高利润率。 * '''Google Cloud:谷歌云(GCP)依托谷歌强大的AI研发实力,提供了从自研芯片TPU到Vertex AI平台的一整套AI基础设施和服务。其商业模式也包含两部分:算力即服务(租用GPU/TPU算力资源)和模型即服务'''(提供谷歌的大模型API以及合作伙伴模型)。2023年生成式AI热潮帮助GCP实现了35%的高速增长 (How AI Surged Google Cloud's Revenue Growth)并首次实现季度盈利,这表明谷歌云过去的投入开始得到回报。谷歌将PaLM、Imagen等自研模型整合到云端产品中出售,例如推出对话模型的API供企业定制客服机器人等。相比竞争对手,谷歌还强调一站式MLOps工具,吸引开发者锁定在其生态内。通过捆绑算力、存储和AI工具,GCP在每单合同中获取的平均收入提高,利润率逐步改善。此外,谷歌的AI专用硬件TPU在内部大规模使用,也外租给客户,这既填补市场空缺又让谷歌云降低对NVIDIA依赖。在激烈的云市场竞争中,谷歌云押注AI差异化来争取后来居上,其能否维持盈利增长有赖于不断推出客户愿意付费的AI先进能力。但短期看,谷歌云凭借搜索和Android生态客户导流,在AI服务上取得了“收费上车”的初步成功。 * **其他:**除上述国外巨头外,'''国内的云计算与AI算力提供商'''也在积极布局。如阿里云、腾讯云、华为云等纷纷推出大模型即服务平台,将自研或合作的大模型提供API调用,并售卖相应算力套餐。这些云厂商利用对本土市场的了解,推出定制化行业大模型解决方案(例如金融AI、大模型客服等),通过项目交付和云资源消耗收费,从中获得利润。由于手握渠道和客户关系,这些“渠道商”在AI落地中掌握定价主动,常以捆绑销售形式确保收益。例如将AI能力作为高级版套餐附加在原有云合同中,获取稳定的续费收入。可以说,无论国内外,云和渠道服务商在AI产业链中扮演着“卖水人”的角色:他们不直接参与内容生产,而是向各淘金者提供工具和基础设施,从每笔“挖矿”活动中抽取收益,因而实现了稳健盈利。 == 3. 行业现状与挑战 == 尽管AI前景广阔,但当前各类玩家在盈利上仍面临诸多挑战: * '''大模型研发公司难盈利的原因:首先是成本高企'''且不可压缩——训练一个数百亿参数模型通常要消耗数千万美元的算力资源,加之需要养大量顶尖AI科研人才,固定开支庞大 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。OpenAI和Anthropic这类公司往往在推出产品多年后仍处于亏损状态 (OpenAI and Anthropic lose billions on AI development and operations)。其次,'''供应商议价劣势'''明显,上游核心硬件(高端GPU)几乎只能从NVIDIA采购 (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发)),不存在有效竞争使得算力成本难以降低。再次,'''市场竞争和替代威胁'''强——目前有众多科技巨头和创业公司投入大模型研发,模型同质化倾向严重,且Meta等玩家选择免费开源模型 (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发)),降低了付费模型的稀缺性。这导致大模型提供商难以建立持久的'''护城河''',客户转换服务商的成本很低 (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发))。最后,'''商业化场景探索不足'''。很多大模型研发公司由科研驱动,对于下游客户需求理解不深,产品形态局限于通用文本/图像生成,尚未找到明确的细分市场刚需痛点来付费解决。这些因素叠加,使得大模型研发公司短期内盈利困难,需要持续融资“烧钱”渡过培育期。 * '''终端应用变现困难的原因:一方面,用户付费习惯尚未建立。普通消费者习惯了免费使用ChatGPT等AI工具,要他们为一般AI功能买单仍有心理门槛。即使有付费意愿,价格也难以定高(例如ChatGPT Plus定价每月20美元已被认为接近天花板),这限制了B2C应用的营收规模。另一方面,企业级ROI不明朗。企业客户虽然对生成式AI兴趣浓厚,但很多应用缺乏直接的效益衡量。例如给员工配备通用AI助手到底提升了多少效率、创造了多少价值,目前数据并不充分 (OpenAI and Anthropic lose billions on AI development and operations) (OpenAI and Anthropic lose billions on AI development and operations)。管理者很难决定投入数百万美元部署AI而看不到清晰的回报,因此多数企业仍在观望试验阶段。据调查,近75%的公司难以评估AI项目的业务价值,成为 adoption 的主要障碍 (How costs, ROI shape generative AI adoption plans | CIO Dive)。此外,终端应用开发商还面临上游成本和竞价'''压力——他们调用OpenAI等模型需要付费,如果用户不买单,这部分成本只能自行消化。同时,大模型功能往往作为附加卖点嵌入现有产品,很难单独收费(例如办公软件内置AI,厂商倾向于不额外收费以提高竞争力 (Microsoft promises it won't charge you to use Bing AI chatbot)),结果就是变现困难。最后,'''监管和风险顾虑'''也让一些变现途径受限,如广告植入AI答案、有偿内容生成等模式可能引发伦理或法律问题。以上导致了终端应用层尽管用户量上来了,但盈利模式仍在摸索之中。 * **硬件厂商盈利模式的可持续性:**当前硬件企业在AI浪潮中风光无两,但长期看仍有挑战。首先,'''市场供需将再平衡'''。随着各大云厂商和AI公司完成新一轮基础设施扩容,GPU需求的爆发式增长可能趋于放缓,涨价势头难以持续,硬件厂商超额利润或逐步回归正常水平。其次,'''竞争加剧与替代'''风险增大。AMD、谷歌TPU、亚马逊Trainium,以及众多初创芯片公司(如SambaNova、Cerebras等)正投入巨资挑战NVIDIA的统治地位 (NVIDIA Faces Rising AI Chip Competition from AMD, Amazon, and St)。尤其是超大规模用户开始自研芯片以降低对外部供应商的依赖(如谷歌TPU已迭代多代,亚马逊亦推出自家AI芯片),未来高端芯片市场可能从一家独大转向多元竞争,厂商利润率因此被压缩。此外,'''技术演进的不确定性'''也是因素。若新的AI算法大幅降低算力需求,或者软硬件优化使得中低端芯片也能承担大模型任务,那么高端芯片的销量和溢价都会受影响。不过短期来看,这些变数对龙头厂商冲击有限:技术替代往往需要数年验证,而AI应用落地还在加速扩张期,因此硬件利润高地在未来2-3年内依然稳固。但从更长远看,硬件厂商需要未雨绸缪,通过持续创新和生态绑定来巩固盈利模式的可持续性。 * **渠道商与云服务商的稳定收益来源:**对于提供AI算力和解决方案的渠道方来说,其盈利稳定性源自几方面:(1) **规模经济与资源复用:**云服务商投入大型GPU集群后,可同时面向成百上千客户按需出租,使得资源利用率和收益远高于单一模型公司专用集群。因此无论某个单一应用是否成功,云平台总能找到其他付费用户来消化算力,从而保持收入稳定。(2) **服务粘性与合约锁定:**渠道商往往通过服务捆绑提高客户粘性,例如提供从模型训练到部署运维的一站式支持,让客户难以轻易迁移。这带来长期订阅和消费,类似“水电费”般源源不断。许多企业签订的云服务合同为一年甚至多年期,确保了渠道商的中长期现金流 (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows)。(3) **差异化价值:**渠道/集成商基于大模型开发定制化解决方案,解决了企业最后一公里的问题(如将AI融入企业业务流程),这些服务具有不可替代性,因而企业愿意持续付费。相对于直接使用开源模型,很多客户更愿意为成熟稳定的商业解决方案埋单。这使得渠道商在产业链中取得客户价值的一部分,形成稳定利润。(4) **风险分散:**渠道商面对的是众多下游行业,不会因为某一家模型或应用失败而致命。在AI应用尚处试错期的当下,“卖铲子”的稳健盈利模式对渠道商来说相对保险。总之,通过上述机制,云计算和渠道服务企业在当前AI大潮中实现了风险和收益的良好平衡,成为少数“躺赢”环节之一。 == 4. 未来趋势预测 == 展望未来,AI产业的盈利模式和格局可能出现以下演变: * '''盈利模式的转变:可以预见,大模型研发公司将寻求更加务实的商业模式,从“烧钱抢跑”转向精细化运营'''和多元收入来源。一方面,更多模型厂商可能效仿开源或开放策略,通过社区和合作伙伴生态弥补自身直销盈利的不足,从而在服务和定制上赚钱。另一方面,业内或出现**“模型即服务”平台化'''的趋势:模型研发公司不再只是卖API调用,而是提供完整解决方案(包括数据定制、模型托管、应用集成),按企业项目价值收费,提升变现能力。同时,随着企业用户成熟度提高,订阅制和增值服务将成为主流盈利模式,例如按用户数收取AI助手订阅费、按功能模块收取授权费等。此外,广告变现也可能在部分应用中出现,如在AI生成内容中植入推荐与营销。总体来说,未来行业会更关注'''变现效率**,探索从终端用户和企业处获取更高ARPU的方法,使AI应用真正产生可观利润。 * '''硬件厂商利润高地能否持续:短期看,硬件提供商仍将享有丰厚利润,但长期地位将取决于其应对竞争和技术变革的能力。如果NVIDIA等持续引领技术并扩大生态(例如软件平台优势),即便竞争者增多也难撼其利润高地;反之若新架构或新对手崛起(比如RISC-V开源架构AI加速器成熟、或超大厂商自给自足芯片),硬件利润可能走向薄利多销'''的常态。然而,即使硬件利润率趋降,其'''绝对市场规模'''仍会扩大,因为AI应用范围的扩张将持续拉动算力需求。例如物联网边缘设备、大模型本地化部署等新场景可能催生数量庞大的中端AI芯片需求。所以硬件厂商或许从单件暴利转向规模取胜。此外,他们也可能上探下游服务,以保持盈利:如NVIDIA已经开始提供AI云服务和成品AI解决方案,未来硬件公司与云服务界限或更模糊,通过向用户直接提供“硬件+软件+服务”套装来获取持续收入。综上,硬件厂商能否一直占据利润高地取决于市场竞争格局和自身战略,但可以肯定的是,'''算力需求的刚性增长将在可见未来确保硬件业务总体盈利丰厚''' (An Investor's Guide to AI Everywhere | IDC Blog) (An Investor's Guide to AI Everywhere | IDC Blog)。 * '''软件与终端应用公司的盈利突破口:随着技术成熟和用户教育深化,终端应用公司有望找到明确的盈利突破口。一大方向是企业级垂直领域解决方案''',即针对特定行业痛点打造大模型应用并直接按项目或效果收费。例如法律顾问AI、医疗影像诊断AI等,这些场景企业付费意愿强、单客价值高,愿意为定制的高质量模型服务买单。另一个突破口是'''提高效率直接带来成本节省'''的应用,如客服机器人、大规模内容审核等,用AI替代人工,每节省的人力成本就是盈利来源。许多企业已经在算ROI:如果AI一年省下上百万美元开支,那么投入几十万美元购买服务是划算的 (How costs, ROI shape generative AI adoption plans | CIO Dive) (How costs, ROI shape generative AI adoption plans | CIO Dive)。此外,面向开发者和专业用户的'''订阅工具'''也前景可期,例如面向设计师的AI制图软件、面向市场人员的文案生成平台等,提供持续更新和专业支持来收取订阅费。消费者市场方面,'''差异化特色功能'''可能驱动付费,例如个性化AI导师、AI伴侣等满足特定深层需求的应用,有望培养小众但高粘性的付费用户群体。总之,终端应用公司需要从“通用大模型”思维转向“领域AI助手”思维,抓住用户明确的付费动机点,才可能实现盈利的突破。 (Exploring opportunities in the gen AI value chain | McKinsey) * '''AI行业投资方向与市场趋势:未来几年,资本和企业投入预计将更加理性,流向能够带来实际价值创造的环节。上游芯片和算力仍是投资热点,但可能更聚焦于填补短板(如欧洲、国内发展自主AI芯片)和优化能效(如光子芯片、低功耗加速器)。模型研发领域,投资者会筛选出有明确应用落地计划和生态支持的团队,纯烧钱堆参数的模式将降温。应用层预计成为资本青睐的新高地,尤其是那些掌握行业数据和渠道的AI应用公司,因为他们最有机会把AI转化为生产力和现金流。与此同时,行业整合或加速,一些缺乏造血能力的大模型创业公司可能被并购整合到大厂生态中,共享盈利。市场趋势上,政府和社会各界对AI价值实现的期望会推动政策支持'''和更完善的监管,鼓励合理盈利模式的发展。例如更多国家可能投入建设算力基础设施,降低创业公司成本负担;监管层面规范数据和隐私以消除企业采用AI的后顾之忧。这些举措都会影响AI行业的盈利格局。最后,从技术趋势看,'''高效模型和自动化工具'''将涌现,使开发和部署AI的成本降低,门槛降低。这可能催生'''大量中小型AI服务提供商''',他们采用开源模型加少量微调即可满足特定需求,以轻量模式盈利。这将进一步丰富AI产业生态,也使利润在产业链中分布得更为均衡,不再像当前这样过度集中于硬件。不过,无论格局如何演变,可以确定的是:AI正在深入各行各业,其创造的商业价值总量将持续攀升,盈利模式也将日趋多元成熟。 (Exploring opportunities in the gen AI value chain | McKinsey) (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows) <nowiki>**</nowiki>结语:**综上所述,当下AI产业链存在明显的“上游肥、下游瘦”现象——大模型研发企业和应用公司尚在摸索盈利之道,而掌控算力供给的芯片巨头和云服务商已抢占先机获取高额利润。然而,随着技术进步和商业模式的演进,这种失衡局面有望逐步缓解。可以预见,'''价值将从硬件逐步向软件应用转移''',产业链各环节的利润分布将趋于健康。对于身处其中的企业而言,唯有不断创新商业模式、提高效率并打造差异化优势,才能在AI浪潮中实现可持续盈利,真正共享这一场技术革命所带来的红利。
Summary:
Please note that all contributions to freem are considered to be released under the Creative Commons Attribution-ShareAlike 4.0 (see
Freem:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)