Jump to content
Main menu
Main menu
move to sidebar
hide
Navigation
Main page
Recent changes
Random page
freem
Search
Search
Appearance
Create account
Log in
Personal tools
Create account
Log in
Pages for logged out editors
learn more
Contributions
Talk
Editing
AI行研
(section)
Add languages
Page
Discussion
English
Read
Edit
Edit source
View history
Tools
Tools
move to sidebar
hide
Actions
Read
Edit
Edit source
View history
General
What links here
Related changes
Special pages
Page information
Appearance
move to sidebar
hide
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
== 2. 企业案例分析 == 围绕上述产业链各环节,我们选取代表性企业剖析其商业模式与盈利现状。 === 模型研发公司 === * **OpenAI:**作为生成式大模型热潮的引领者,OpenAI的商业模式以API付费调用和订阅为主,并通过与微软深度合作将GPT模型嵌入Office、Azure等获取授权收益。然而高昂的研发和算力支出使其财务压力巨大。2023年OpenAI据报道收入约数十亿美元但亏损高达数十亿美元 (OpenAI and Anthropic lose billions on AI development and operations)。内部测算显示,训练GPT-4等模型单次费用高达数千万美元,ChatGPT产品的运营成本也极其高企 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。尽管有微软投入的巨额资金支撑,OpenAI迄今尚未实现盈利 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。CEO Sam Altman 已多次坦言需要探索更可持续的盈利模式,例如提高API定价、推出更高价的新服务等 (OpenAI loses money on expensive ChatGPT Pro subscription - Techzine Global)。 * **Anthropic:**这是一家专注AI安全和大模型的创业公司,推出了对标ChatGPT的Claude模型。Anthropic获得了包括Google、亚马逊在内的大笔投资,但同样面临烧钱难盈利的处境。'''据报道Anthropic 2024年预计支出超27亿美元,收入不到10亿美元''' (OpenAI and Anthropic lose billions on AI development and operations)。其商业模式类似OpenAI,通过提供模型API和企业定制服务变现,同时与Google Cloud和AWS合作换取资源支持(如亚马逊承诺高额云计算采购以换取股权)。Anthropic目前仍在投入期,寄望凭借模型差异化(如更长上下文、更高安全性)吸引付费企业客户,实现收支平衡。 * '''Google DeepMind:谷歌将原Google Brain与DeepMind合并,形成新的通用AI研发部门。作为搜索和广告巨头,谷歌布局大模型更多是战略防御和生态完善,其盈利主要通过母公司现有业务间接实现。Google开发了PaLM、Bard等大模型,近期又发布了多模态的Gemini模型,主要用于增强自家搜索、云服务和生产力工具的竞争力。谷歌在AI研发上的投入非常巨大,2023年因AI相关开支导致营业利润率一度下降,但管理层明确表示“在AI上宁可过度投资也不能投资不足'''” (OpenAI and Anthropic lose billions on AI development and operations)。Google Cloud现已提供大模型API和定制化服务,吸引企业付费使用其模型能力,加上云基础设施租用费,这部分开始贡献收入。2023年谷歌云业务在AI带动下同比增速达到35%,并在多年亏损后实现季度盈利 (How AI Surged Google Cloud's Revenue Growth)。总体而言,Google DeepMind本身不直接盈利,其价值体现在支撑谷歌核心业务的长期增长。 * **Meta(Facebook):**Meta在大模型领域采取开放开源的策略,先后开放了LLaMA系列模型权重供研究社区使用。Meta的主要收入来自社交平台广告和元宇宙等业务,短期并未试图通过销售大模型服务盈利。相反,开放大模型有助于树立行业影响力,并催生围绕自家模型的应用生态,从而间接巩固Meta平台的内容和用户黏性。Meta的大模型研发投入同样可观,但选择了与开源社区协同的商业模式。这在一定程度上冲击了试图商业化模型的同行:'''Meta几乎免费将数十亿参数模型投放市场,降低了付费模型的独占价值''' (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发))。不过Meta也在探索将生成式AI融入旗下产品(如Instagram生成表情包、WhatsApp智能助手等)提升用户体验,未来可能通过增值服务或提升广告定价来变现AI功能。 * **百度:**作为中国领先的搜索和AI公司,百度近年押注大模型“文心大模型”(含对话产品文心一言等)。百度的商业模式是“双轨”——一方面将大模型能力赋能自家搜索、信息流和广告业务,提升变现效率;另一方面通过百度智能云向企业提供大模型服务和解决方案。百度CEO李彦宏透露,'''文心一言已开始带来增量收入,预计2024年将贡献数十亿元人民币的新收入,主要来自广告业务优化和AI云服务销售''' (李彦宏:文心一言将在2024年贡献数十亿元的增量收入 - 网易)。这意味着百度并非直接售卖文心模型获取费用,而是通过加强广告定向投放(提升广告转化,使客户愿意付更高广告费)以及吸引企业上云使用其AI平台来变现。目前百度智能云已推出文心大模型API、定制训练等服务,并报告2024年云业务收入同比大增近3倍 (百度智能云:AI收入增长近3倍,引领未来云服务新纪元 - 新闻)。虽然文心大模型尚未独立盈利,但其带动的周边业务增长正在显现。 * '''华为:华为在AI领域同时扮演模型研发和硬件提供双重角色。其推出的“盘古大模型”涵盖NLP、CV等多领域,目标是赋能金融、制造、医疗等行业解决方案。华为的大模型主要用于提升其ICT产品附加值和支持华为云的AI服务,并不直接对公众提供开放接口盈利。然而,华为在AI上的投入有助于拉动其硬件和云服务销量'''。一方面,华为研发了昇腾系列AI芯片和配套算力集群(如Atlas),将自研大模型部署其上,以展示硬件性能,从而推动芯片和AI基础设施的市场销售。另一方面,盘古模型等提升了华为云AI能力,吸引政企客户选择华为云做AI项目部署。在美国技术限制背景下,华为提供“软硬一体”的国产AI方案,有望占据国内市场份额并获得稳定收益。总体而言,华为依靠其多元业务支撑AI研发投入,模型本身更像是带动硬件与云服务盈利的“引擎”。 === 终端应用公司 === * '''微软(Microsoft):作为传统软件巨头,微软在AI时代通过投资OpenAI和自主研发,迅速将大模型融入其核心产品。微软的商业模式是在自身庞大用户基础上增值收费''':例如在Office 365中引入“Copilot”AI助手并计划额外收费,每位企业用户每月收费高达30美元,这将直接提高Office订阅ARPU值。又如GitHub Copilot编码助手,采取付费订阅制,已吸引数百万开发者付费。另一方面,微软在必应(Bing)搜索中集成GPT聊天提升体验,虽对消费者免费,但希望借此提高搜索市场份额和广告营收 (Microsoft lays out its initial advertising plans for the A.I.-powered Bing)。目前来看,微软已成功将AI转化为新的收入来源:2023年其商用Office产品线因Copilot预售等因素而提价,Azure云也因为OpenAI服务吸引了大量付费客户。值得注意的是,微软身兼“终端应用提供商”和“渠道商”双重身份——通过Azure OpenAI服务向第三方出售模型能力,也是其盈利重要部分 (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows)。总体而言,微软凭借先发优势,正实现从AI技术中多渠道变现,助力公司营收增长和长期竞争力。 * '''字节跳动(ByteDance):这家公司旗下拥有抖音/TikTok等现象级应用,本身以算法见长。字节跳动在生成式AI应用上动作相对低调,主要将AI用于内容创作和内容分发优化。例如抖音上线AI創作工具(如AI头像、AI字幕)、火山引擎云服务提供大模型接口等。但这些应用多半免费提供给用户以增强体验,字节的主要收入仍来自广告和电商佣金。AI的价值更多体现在提高用户参与度和广告定向效率''',从而间接提升变现能力。例如更精准的内容推荐和广告匹配带来更高广告转化率,这种收益难以直接量化到AI模块。字节跳动也在尝试企业向服务,如推出面向企业的智能创作平台等,但目前规模有限。总的来说,字节跳动将大模型作为强化内容生态的工具,短期内未单独商业化AI,但AI已成为其维系用户和广告优势的基础设施。 * '''阿里巴巴:阿里将大模型应用于电商、客服和云计算等多个场景,探索多元变现路径。在2C方面,阿里在淘宝应用了生成式AI来自动生成商品描述、搭配文案,提升商家运营效率;在支付宝等应用中引入AI助手提升用户服务。这些举措主要是留存商家和用户''',未直接收费。在2B方面,阿里云推出通义千问大模型对外提供API服务和行业解决方案,收费模式按调用量或订阅计费,成为阿里云吸引客户的新卖点。阿里巴巴管理层曾表示希望大模型在未来成为云业务的新增长点,带来明显收入贡献。据报道,通义大模型发布后已有上千家企业测试接入。虽然当前阿里云的收入体量中AI服务占比不大,但增速亮眼,阿里2023年云业务增速恢复两位数就是因AI驱动 (百度的AI规模起来了:文心大模型日调用量达15亿 - QQ News)。此外,阿里在钉钉办公系统中集成大模型助手(如智能写作、会议纪要),可能通过'''企业增值服务'''收费。整体而言,阿里巴巴正将AI融入电商、金融、云等生态中,近期以'''间接变现'''为主(提升交易额、云租户等),长期期待直接的SaaS订阅和算力租用收益。 * '''腾讯:腾讯拥有微信、QQ等海量用户应用,以及游戏、金融科技等业务。腾讯于2023年推出混元大模型,定位为底层能力向各业务赋能。当前腾讯将生成式AI主要用于增强产品体验:如在QQ音乐推出AI歌手,微信测试智能助手,腾讯文档集成智能润色等。这些终端应用功能多为免费提供,旨在巩固用户黏性和使用时长''',从而保障腾讯广告和增值服务收入。腾讯也计划将混元模型通过腾讯云开放给企业,按需收费。2023年9月腾讯宣布混元对外开放后,有数万开发者申请使用其API,一些银行、媒体等成为首批企业客户。虽然收费转化率未知,但这代表腾讯尝试以'''云服务模式'''出售AI能力。游戏领域,腾讯也在探索用大模型生成游戏内容、NPC对话等提升游戏可玩性,未来或将开发者工具或升级体验包装为新卖点收费。总体看,腾讯将大模型视为提升现有业务价值的技术,中期通过云和行业解决方案寻找变现机会,短期内对营收的直接贡献仍不明显。 === 硬件厂商 === * '''NVIDIA(英伟达):无可争议的AI算力供应王者。随着“大模型热”引爆算力需求,NVIDIA的A100、H100系列GPU成为各大公司抢购的“水桶金”。2023年以来NVIDIA业绩屡创新高:2024财年Q3季度营收351亿美元,同比增长94%,其中数据中心业务(主要是AI芯片)同比猛增112% (NVIDIA Announces Financial Results for Third Quarter Fiscal 2025 | NVIDIA Newsroom),带来巨额利润和现金流。NVIDIA之所以能赚取超额利润,一方面在于其在高端GPU市场的垄断性技术领先,使其拥有接近完全的定价权''' (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发));另一方面,生成式AI的爆发令供不应求局面长期存在,GPU售价和溢价水涨船高。在中国市场,由于出口管制,NVIDIA推出性能略降的特供型号(A800/H800),依然需求旺盛。除了卖芯片本身,NVIDIA还通过软件生态(如CUDA加速库、AI开发框架)绑定客户,形成持续收入。可以说,只要大模型训练和部署需求增长不止,NVIDIA在产业链中'''躺赢'''的地位短期无虞。 * **AMD:**作为GPU领域的老二,AMD近年加大对AI加速器的投入,希望分享AI硬件红利。其MI200/MI300系列数据中心GPU在2023年下半年开始被超大规模数据中心采用(如有传闻微软预订大量MI300用于其AI集群),同时AMD提供性价比更高的GPU方案以争夺部分中端市场。虽然AMD目前在AI芯片市场份额远不及NVIDIA,但AI热潮也推动了AMD相关业务增长,2023年AMD数据中心部门营收有所提升。AMD的优势在于与大型云厂商合作推出定制芯片(如与谷歌云合作开发GPU实例),并且CPU业务(EPYC霄龙处理器)也从AI服务器扩张中获益。整体来看,AMD正处于奋力追赶阶段,其能否在盈利上更上一层楼取决于后续产品性能及生态能否挑战NVIDIA地位。 * **Intel(英特尔):**作为芯片巨头,Intel在AI专用加速硬件上相对滞后。其优势是CPU在通用计算市场仍占主导,许多AI推理任务仍运行在Intel至强CPU上,为其贡献销售。但是在大模型训练所需的GPU/加速卡市场,Intel份额甚微。为扭转颓势,Intel收购了Habana Labs推出Gaudi系列AI训练芯片,并开发GPU产品线(如Ponte Vecchio)瞄准高性能计算。但这些产品在市场影响力有限,对Intel财务贡献不明显。好在AI浪潮下,对算力的总体需求增长也拉动了CPU服务器出货,2023年下半年Intel数据中心部门业绩有所回升,其中宣称新的至强处理器在AI推理方面性能提升。这意味着Intel通过在CPU中集成AI加速指令(如AMX单元)等方式留住了一部分AI工作负载。不过要在“大模型”硬件红利中大赚,Intel还需要推出有竞争力的GPU/ASIC产品。目前其盈利仍主要依赖PC和服务器CPU的传统业务,AI芯片业务更多是战略投入。 * '''华为等国内厂商:在美国对华高端芯片管制的背景下,中国厂商也加紧布局AI硬件以填补空白。华为的昇腾AI芯片(如昇腾910、昇腾310等)在国内多家AI云和科研院所中部署,用于训练本土大模型。此外,阿里平头哥推出含光800推理芯片、寒武纪科技推出思元系列AI芯片、百度研发昆仑芯片,这些国内方案逐步商用。虽然短期性能上仍与NVIDIA有差距 (揭秘:为何大模型总是赚不到钱?行业内幕大曝光! - 53AI-AI生产力的卓越领导者(大模型知识库|大模型训练|智能体开发))、生态也不够成熟,但在政策和市场扶持下,本土AI芯片销量开始提升,为相关厂商带来收入。例如某些云厂商推出“全国产AI算力”服务,采用华为/寒武纪芯片,定价较高但赢得政府订单。这类硬件公司的盈利模式是典型的TO B销售''':依靠大客户批量采购实现收入。目前来看,华为等公司的AI芯片业务还在投入期,尚未成为利润主力,但在特定市场已经实现销售突破。随着国产替代进程和AI需求扩张,国内硬件厂商有潜力在部分细分领域形成稳健的盈利来源。 === 云计算与AI算力提供商 === * '''亚马逊 AWS:作为全球最大云服务商,AWS在AI兴起中既是算力提供者也是AI方案集成者。AWS通过提供弹性的GPU/TPU云实例、机器学习平台SageMaker以及最新的Bedrock大模型托管服务,将AI能力包装为易于按需获取的服务售卖给企业。其盈利模式一方面是算力租赁'''(客户使用EC2 P4等GPU实例按时计费,AWS从中获取可观毛利),另一方面是'''增值服务费'''(如托管大模型收取额外费用)。2023年以来,AWS受宏观经济影响增速一度放缓,但AI需求成为新的增长引擎。AWS公布其生成式AI相关的云服务订单激增,并与多家大客户签订长期合同共同构建AI解决方案。例如AWS与Anthropic达成战略合作,Anthropic不仅获得资金也承诺在AWS上消耗一定额度的算力。凭借先发的市场规模和丰富的服务,AWS在AI浪潮中获取的收入和利润增长相对稳健。母公司亚马逊也在开发自研AI芯片(Trainium推理芯片等)降低内部成本,进一步巩固AWS云在AI时代的利润率。 * '''Microsoft Azure:微软的Azure云因与OpenAI捆绑而成为AI时代炙手可热的平台。微软的大模型即服务策略明确:将OpenAI最先进的模型(GPT-4等)通过Azure OpenAI Service提供给企业客户,并叠加微软自有的AI模型和工具,形成完善的企业AI解决方案。Azure通过订阅和用量费'''从中收回投资,并带动其云基础设施租用。事实证明此举成效显著,Azure在2023年下半年迎来企业大单潮,1000万美元以上的云合同数量同比翻倍 (AWS, Microsoft, Google Continue to Invest in Cloud as AI Demand Grows)。很多传统Azure客户增加了AI服务用量,新客户也因为OpenAI模型接入而选择Azure。这直接促进了微软智能云业务收入与利润的增长。同时,微软还推出了Bing Chat Enterprise等面向商用的AI服务,以每用户每月5美元计费 (Microsoft is charging fees for some Bing and Office AI tools - Quartz),为云业务开辟新的收费点。Azure整体的盈利模式较成熟——先由规模效应降低单位算力成本,再通过丰富的AI功能提升溢价和客户黏性,实现持续盈利。得益于此,微软声称“AI将驱动下一波云业务增长”,Azure有望长期保持高利润率。 * '''Google Cloud:谷歌云(GCP)依托谷歌强大的AI研发实力,提供了从自研芯片TPU到Vertex AI平台的一整套AI基础设施和服务。其商业模式也包含两部分:算力即服务(租用GPU/TPU算力资源)和模型即服务'''(提供谷歌的大模型API以及合作伙伴模型)。2023年生成式AI热潮帮助GCP实现了35%的高速增长 (How AI Surged Google Cloud's Revenue Growth)并首次实现季度盈利,这表明谷歌云过去的投入开始得到回报。谷歌将PaLM、Imagen等自研模型整合到云端产品中出售,例如推出对话模型的API供企业定制客服机器人等。相比竞争对手,谷歌还强调一站式MLOps工具,吸引开发者锁定在其生态内。通过捆绑算力、存储和AI工具,GCP在每单合同中获取的平均收入提高,利润率逐步改善。此外,谷歌的AI专用硬件TPU在内部大规模使用,也外租给客户,这既填补市场空缺又让谷歌云降低对NVIDIA依赖。在激烈的云市场竞争中,谷歌云押注AI差异化来争取后来居上,其能否维持盈利增长有赖于不断推出客户愿意付费的AI先进能力。但短期看,谷歌云凭借搜索和Android生态客户导流,在AI服务上取得了“收费上车”的初步成功。 * **其他:**除上述国外巨头外,'''国内的云计算与AI算力提供商'''也在积极布局。如阿里云、腾讯云、华为云等纷纷推出大模型即服务平台,将自研或合作的大模型提供API调用,并售卖相应算力套餐。这些云厂商利用对本土市场的了解,推出定制化行业大模型解决方案(例如金融AI、大模型客服等),通过项目交付和云资源消耗收费,从中获得利润。由于手握渠道和客户关系,这些“渠道商”在AI落地中掌握定价主动,常以捆绑销售形式确保收益。例如将AI能力作为高级版套餐附加在原有云合同中,获取稳定的续费收入。可以说,无论国内外,云和渠道服务商在AI产业链中扮演着“卖水人”的角色:他们不直接参与内容生产,而是向各淘金者提供工具和基础设施,从每笔“挖矿”活动中抽取收益,因而实现了稳健盈利。
Summary:
Please note that all contributions to freem are considered to be released under the Creative Commons Attribution-ShareAlike 4.0 (see
Freem:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)