500亿美元,两大云巨头的竞争态势又有变化了,全球第一大云公司
时间: 2026-03-01 18:13作者: 爱吃糖的丫头亚马逊AWS CEO Matt Garman在re:Invent 2025演讲
500亿美元投资,不止锁定了OpenAI未来1380亿美元的长期订单,还争取到了自研AI芯片被大规模使用的机会,更是在试图抢占AI云转型的战略主动权
文|《财经》研究员吴俊宇
编辑|谢丽容
美国西部时间2月27日,OpenAI宣布完成1100亿美元融资——其中软银投资300亿美元、英伟达投资300亿美元、亚马逊投资500亿美元。OpenAI的投前估值是7300亿美元,此轮融资后该公司未披露最新估值情况。
亚马逊这次投的500亿美元,是该公司史上最大规模的对外投资。
亚马逊方面披露的信息显示,500亿美元投资是分批次的。首期投资150亿美元,并在未来数月满足特定条件后追加投资350亿美元。
有媒体分析,上述“特定条件”指,OpenAI将在2026年启动IPO(首次公开募股)并上市。如果OpenAI能够成功上市,那么后续投资也将到位。
亚马逊和OpenAI还达成了一项新的云服务采购协议:在2025年11月签署的七年380亿美元采购大单的基础上,再增加八年1000亿美元大单。
也就是说,OpenAI未来7年-8年将采购1380亿美元亚马逊AWS的云资源。
根据该协议,OpenAI承诺通过亚马逊AWS消耗约2GW(吉瓦是功率单位,1GW可容纳20万枚英伟达GB200芯片)的Trainium(主要指亚马逊自研的Trainium 3/4系列芯片)算力。
亚马逊利用这500亿美元,不止锁定了OpenAI 1380亿美元的长期订单,还争取到了自研AI芯片被大规模使用的机会,更是试图抢占AI云转型的战略主动权。
亚马逊AWS是全球云市场的领头羊,营收规模、市场份额长期位居全球首位。不过,2023年大模型浪潮来临后,亚马逊AWS过去两年面临微软Azure的竞争压力。微软Azure正在缩小和亚马逊AWS的差距。
500亿美元投资会带来什么?
500亿美元换1380亿美元大单,它带来的直接效果是——确保亚马逊AWS未来几年的长期增长。
2025年,亚马逊AWS营收1287亿美元,同比增长19.7%,新增收入211.7亿美元。同期,微软智能云(口径包含微软Azure和其他服务器云产品)营收1204亿美元,同比增长25.9%,新增收入248.7亿美元。
也就是说,微软智能云的新增收入已超过亚马逊AWS。
微软Azure主要是靠OpenAI缩小差距的。2023年之后,微软靠投资OpenAI换取了云资源订单。有报道称,OpenAI 2025年为微软Azure支付的云成本可能高达130亿美元。此外,一批企业为使用OpenAI的模型,迁移到微软Azure,这带来了大量新增收入。微软2024年初曾披露,微软Azure 5.3万名AI客户中,有超过三分之一的新增客户。
但争取到OpenAI后,亚马逊AWS在与微软Azure的竞争中,将很有可能重新占据上风。
OpenAI如果兑现1380亿美元采购承诺,亚马逊AWS未来每年新增收入将超过100亿美元。以亚马逊AWS 2025年1287亿美元年营收为基础,OpenAI每年带来100亿美元-200亿美元新增收入计算,短期内亚马逊AWS营收增速将提升超过10个百分点。
一位亚马逊AWS人士曾对《财经》表示,OpenAI这样的大客户对亚马逊AWS很重要。它们通常会和亚马逊AWS签署三至五年的长期大单。每年都会采购数十亿美元规模,甚至上百亿美元规模的云资源。目前亚马逊AWS全球最大的客户包括Saleforce、苹果、字节跳动、Anthropic、OpenAI等公司。
500亿美元投资撬动1380亿美元收入只是一方面,这还会减少对英伟达的依赖,让亚马逊的自研AI芯片得到规模化使用,摊薄芯片自研成本,并提升亚马逊AWS的利润率。因为自研AI芯片规模化部署后,采购成本会比从英伟达采购AI芯片更低。
自研Trainium芯片是亚马逊的长期战略。一位亚马逊AWS人士曾对《财经》表示,公司一线销售在向客户推荐算力资源时,通常会把Trainium系列的云资源放在首位,并积极和企业客户共同适配和打磨。目前,Trainium和英伟达的GB200/GB300等成熟产品有差距。短期来看,这种做法可能会牺牲小部分收入,但长期看这是值得的。
《财经》了解到,亚马逊的Trainium 3(第三代)芯片已量产,下一代Trainium 4也在研发设计阶段,并将于2027年量产。亚马逊管理层在2025年2月的四季度财报电话会议曾披露称,亚马逊AWS已交付超过140万枚Trainium 2芯片,该芯片性价比同类GPU高30%-40%,年化收入(当季收入×4)数十亿美元,有超过10万企业客户。
自研芯片在亚马逊AWS的Token(词元,推理算力的计量单位)消耗占比也在持续加大。2025年10月的三季度财报电话会议上,亚马逊管理层曾披露,目前在Bedrock平台(亚马逊AWS的MaaS模型服务平台)上,大部分Token消耗都来自Trainium系列自研芯片。
国际AI和半导体市场调研和咨询机构SemiAnalysis 2025年12月报告显示,亚马逊自研的Trainium 3系列芯片单芯片热设计功耗约为1kW(千瓦)。OpenAI未来消耗2GW的Trainium系列芯片。
按照这一数据保守测算(考虑到网络、电源、制冷等设备的能源需求),亚马逊AWS至少要为OpenAI提供数十万枚Trainium芯片。
争取AI云转型的战略主动权
2025年以来,转型AI云正在成为美国四大云厂商——亚马逊AWS、微软Azure、谷歌GCP、甲骨文OCI的共同战略目标。
什么是“AI云”?它是以GPU等AI芯片为算力底座,提供从芯片到模型的一站式AI开发与部署服务的云计算平台。AI云的技术架构正在剧烈演化,它也在让云计算的收入结构发生剧烈变化。一种预期是——模型带来的Token收入在云厂商的收入占比将持续提升。
OpenAI这种AI云原生客户将倒逼亚马逊AWS加快AI云转型的步伐。
对亚马逊AWS来说,OpenAI的价值在于——它是典型的AI云原生客户。它的算力消耗主要来自训练、推理等资源,而且具备高并发、高波动等特点。这和过去更多依赖CPU算力资源的客户不同。OpenAI对Token这种推理算力的消耗量会持续增长。
OpenAI披露称,截至2026年2月,ChatGPT周活跃用户已达9亿,个人订阅用户数超过5000万。目前已有超过900万付费企业使用ChatGPT。2025年ARR(年度经常性收入,可理解成订阅收入,计算方式是当月收入×4)超过200亿美元,同比增长超过100%。
OpenAI的用户、营收快速增长的同时,会同步为亚马逊AWS带来Token收入的增长,并带来长期经营现金流。在技术架构上,它也会倒逼亚马逊AWS优化算力资源池,强化推理调度能力,并提升芯片利用率。
OpenAI甚至还可以为亚马逊AWS带来模型能力。亚马逊披露的信息显示,双方将合作开发定制模型,直接服务客户的各类AI产品和智能体。这些能力将补充亚马逊开发者可用的现有模型库(包括亚马逊的Nova系列)。《财经》了解到,亚马逊AWS自研的Nova系列模型长期和第一梯队存在差距。目前这是亚马逊AWS在AI云战场的短板。
一位国际云厂商人士2025年12月曾对《财经》表示,亚马逊AWS是云市场领头羊,它在AI云转型的时候,容易有历史惯性——因为自身收入规模已经足够大,一些头部客户的AI转型又相对谨慎。这会让收入结构、技术架构的转型都不够快。改变这种惯性的方式是,拓展更多AI原生客户,让客户需求倒逼自身转型。
实际上,亚马逊AWS管理层正在密切关注AI云转型的长期方向,并制定了长期目标。
亚马逊AWS管理层2025年三季度财报电话会议曾披露,长远来看,Bedrock(亚马逊AWS的MaaS平台)收入贡献将与EC2(亚马逊AWS的CPU和GPU计算实例业务,在总营收占比超过30%)不相上下。但亚马逊AWS管理层未披露,Bedrock收入的详细统计口径,以及上述目标的具体实现时间。
《财经》了解到,EC2是亚马逊AWS目前最核心的产品(亚马逊AWS核心产品包括EC2计算、S3存储、RDS/Aurora数据库等),年营收高达数百亿美元,是它的收入基石。按照亚马逊管理层这一预测,Bedrock有朝一日也将成为一个数百亿美元的业务。
目前,亚马逊AWS的AI云转型正在从全栈AI产品展开。它涉及计算、存储、芯片、模型等多个领域,并取得了一定的积极进展。
2025年12月亚马逊AWS的re:Ivent全球大会期间,亚马逊AWS的EC2产品总监Luis Wang曾对《财经》表示,AI云的竞争重点,正在训练转向推理。AI推理算力面临高波动、不可预测、极端弹性等特点,因此AI推理基础算力的调度能力将成为核心竞争力。
他提到,跑同一个开源模型,亚马逊AWS的推理成本会比原厂更低。因为亚马逊AWS有更高效的调度能力。因为亚马逊AWS能够通过统一的容量池技术,对模型进行毫秒级动态加载、卸载。这可以提升底层算力的利用率。这会让企业客户更愿意选择亚马逊AWS。
亚马逊AWS存储和数据业务副总裁Mai Lan在2025年12月曾对《财经》表示,AI并不是一个独立的产品线。它会改变现有几乎所有工作负载的运行方式。在她看来,AI云的竞争不是单纯算力竞争,而是全栈成本的竞争。她提到,亚马逊AWS正在通过实现数据和存储的自动分层,帮助客户优化成本。
《财经》了解到,2025年12月亚马逊AWS进行了一次组织架构调整。亚马逊AWS计算副Peter DeSantis担任AI模型(Nova大模型团队)、芯片(例如 Graviton、Trainium、Nitro三类芯片)团队的负责人。这次调整的目的是,强化自研大模型的研发,并让模型和芯片团队实现更好的协同。