2026人工智能进入第二阶段,新的硬件需要升级导致美股市场有两只受益股最近涨疯了,今年亚马逊、微软、谷歌、Meta、甲骨文,这五大巨头今年的资本开支将达到惊人的 7050亿美元。如果算上CoreWeave,这个数字将接近 7400亿!
7400亿是什么概念?较2025年同比增长约70%,是去年底市场预期增速(约35%)的两倍;
几乎等于整个超大规模云厂商一年赚到的现金总和。
这帮科技大佬是疯了吗?AI到底是不是一个即将破裂的万亿泡沫?
但在我看来,这组数字传递的恰恰是另一个信号——当资本被推到这种规模,问题已经不再是“要不要投”,而是“原有路径还能不能支撑”。
算力越堆越大,系统压力越集中,电力、散热、互联、效率,每一个环节都在逼近物理边界。旧架构开始吃不消,一条被巨额投入硬生生逼出来的新技术路线,正在加速成形。
今天这一集,会非常硬核。我会把我最近深入调研梳理的AI技术背景、商业逻辑和财务变化,一层一层拆解给你看。
我要帮你把这件事彻底想明白:
为什么这7400亿非投不可?
为什么资本会把算力一步步推向物理极限?
当传统架构走到尽头,被迫诞生的那条新技术路线到底是什么?
这条新路线上第一批吃到红利的公司到底有谁?
在AI面前,软件股护城河还存在吗?
是基本面崩塌,还是一场机构主导的仓位绞杀?
散户在抄底,机构在做空,到底哪个力量强大?
钱为什么非砸不可
先把结论说清楚。这7400亿美元的算力投入,不是豪赌,而是生存必需。
在今天的AI竞争中,胜负不再由模型参数决定,而取决于单位算力的成本效率。过去升级服务器是为了“更快一点、更稳一点”;如今,架构只要落后一代,成本就可能高出2到3倍。
以主流大模型推理为例:在相同吞吐量下,使用上一代 GPU(如 A100 或 H100)完成任务所需的电力、芯片数量和机架空间,往往是新一代平台(如 Blackwell)的两倍以上。这不是性能差异,而是成本结构的根本性失衡。
对云服务商而言,这直接关乎生存;
成本高了,就无法在价格战中守住毛利;
效率低了,就难以按合同承诺交付大规模 AI 服务;
一旦客户因延迟或超支转向对手,信任便很难挽回。
正因如此,即便面临财报压力,巨头们也必须咬牙推进换代。英伟达的 H100 在 2023 年成为行业标配后,仅两年时间,Blackwell 架构(B200/GB200)便已在 2025 年下半年进入大规模部署阶段。业内共识是:若不在 2026–2027 年窗口期完成 Blackwell 升级,未来三年将陷入结构性成本劣势。
更重要的是,AI已经不只是成本项,而是在拉动真实需求。
亚马逊AWS的未确认收入已达到2440亿美元,同比增长约40%,其中大量是明确要求AI算力支持的长期合同。如果数据中心建慢一步,客户立刻转向别家。
谷歌的情况同样明显。公司内部超过30%的代码已经由AI辅助生成,部分团队接近一半。随着Gemini模型优化,同类AI服务的运行成本比半年前下降了20%到30%。AI已经嵌入生产流程,不用就落后,不提前布局算力,就等于放弃确定性收入。
但当算力规模持续扩张,瓶颈开始向底层转移。真正的约束,已从芯片转向电力。数据中心本质是一套全天候运转的工业系统,没有稳定电力,再先进的芯片也跑不起来。
从2026年的资本开支拆解看,为支撑这轮扩张,新增电力需求约在6–15GW,液冷系统需求提升约200%。电网和能源基础设施,已经被明确纳入核心资本支出。
也因此,科技巨头的投入开始从买芯片,扩展到更完整的系统工程:自建数据中心、锁定长期电力、部署液冷方案,甚至推进自研芯片和整机架构优化。
把这些因素放在一起看,七千亿美元不是数字游戏,而是AI从“技术选项”蜕变为“基础设施”的必然代价。在这个新范式下,不投算力,等于主动退出未来。
钱砸到哪里开始出问题?
当资本开支不断加码,GPU数量持续翻倍,很多人自然会认为:算力翻倍,效率也会翻倍。
但现实并非如此。当算力规模扩张到一定程度后,系统效率开始出现明显的“递减效应”。芯片数量在增长,但整体可用算力的释放速度却跟不上。
问题出在哪里?并不是芯片不够先进,而是数据在芯片之间流动的方式开始成为瓶颈。
你可以把整个AI系统想象成一个巨型工厂。芯片负责“加工”,而数据在不同芯片之间流动,就像零部件在车间之间传输。
在传统LPO(可插拔光学)架构下,芯片完成计算之后,数据需要先以电信号形式沿着电路板跑一段距离——通常是厘米级——走到机柜边缘的光模块,再完成电光转换,然后才能传输出去。
这就像一个快递分拣中心。
分拣员已经处理好包裹,却必须把包裹放到一条很长的传送带上。传送带把包裹运到打包区之后,打包人员才能继续操作。
当包裹不多时,问题不明显。但当订单暴涨、分拣员数量翻倍时,这条传送带就开始拥堵。
在算力系统里,这条“传送带”就是电信号传输路径。
电信号传得越远,损耗越大;功耗越高,发热越严重。GPU数量越多,数据协作越频繁,系统中用来“搬运数据”的能耗就越高。
于是出现一个关键矛盾:芯片本身已经足够快,但整个系统却被数据传输拖慢。
这就是算力堆叠的边际效益开始衰减的根源。
而CPO的出现,正是针对这个问题。
CPO(共封装光学)把光引擎直接放到芯片旁边,与ASIC共享同一个封装基板。电光转换在芯片附近完成,物理距离从厘米级压缩到毫米级,通常小于5毫米。
看似只是封装变化,本质却是结构重构。当数据不再“跑很远”,电信号路径缩短,单位带宽功耗下降,发热压力明显缓解。在相同电力与空间条件下,可以支持更多GPU协同工作。
这意味着系统扩展能力被重新打开。过去限制规模的是‘互联成本’,而不是‘算力能力’。CPO 的本质是打破了‘电信号传输距离’的物理枷锁。
对科技巨头来说,这不只是节省电费的问题,而是算力集群能否跨越‘万卡、十万卡、百万卡’门槛的关键。如果传输瓶颈解决不了,堆叠再多的芯片也只是在制造一个庞大却低效的臃肿系统。
因此,2026 年将是一个分水岭:能否率先在量产中落地光电共封装(CPO)或类似的高性能互联方案,将决定谁能率先构建出真正‘线性增长’的超大规模算力池,并握住通往下一代通用人工智能(AGI)最核心的入场券。
如果你觉得本视频对你有帮助,老规矩先点赞再收藏,关键时刻能帮忙美国热线 626 378 3637
CPO受益股
目前,几家关键系统级玩家对 CPO 的态度,已经明显从“技术储备”转向“路线规划”。
英伟达计划在 2026 年下半年推出的 Rubin 架构中引入单机内部光互连(Scale-Up CPO),并通过外置光源(ELS)与可插拔设计,解决了过去光电封装“坏了难维修”的核心痛点。即便光源故障,也可以模块化更换,而无需整板报废。
在单卡功耗逼近千瓦、带宽迈向 1.6T 以上的背景下,真正可能失控的不是算力,而是数据传输能耗。如果单位带宽功耗降不下来,集群规模越大,电力与散热压力就越逼近物理极限。对英伟达而言,CPO不是简单的性能升级,而是支撑“AI工厂”持续扩张的底层条件。
博通则凭借其 Bailly 等 51.2T 及更高带宽的交换平台,正在定义下一代网络的“路权”。博通的逻辑是直接将硅光芯片与交换 ASIC 打包,这使得下游厂商如果想使用博通的顶级交换能力,就必须拥抱其定义的 CPO 标准。
而英特尔则利用其在硅光子领域长达十年的技术积淀,将光电集成深度嵌入其 EMIB 与 Foveros 先进封装战略中,试图在超大规模计算系统中通过降低单位带宽能耗实现“弯道超车”。
当战场方向基本统一,真正的收益流向已经逐渐清晰,并主要集中在以下几类美股龙头身上:
第一类,是激光芯片的“卖水人”:Lumentum(LITE)和 Coherent(COHR)。
在 CPO 架构下,高功率磷化铟(InP)连续波激光器(CW Laser)成为真正的“动力源”。由于 CPO 光引擎本身不集成激光器,必须由外部高功率光源供光,这使得激光芯片从“配套部件”上升为核心资产。
LITE 已披露获得数亿美元 CW 激光器订单,预计 2026 年产能将提升至约 2000 万颗,并计划在 2027 年满足英伟达约一半的需求,单颗 ASP 约 30–35 美元。随着 1.6T 与 CPO 方案推进,其收入弹性正在逐步显现。
COHR则凭借 6 英寸磷化铟产线,在产能与成本上建立优势。公司管理层表示,1.6T 与 CPO 需求加速,订单可见度已延伸至 2027 年。
但市场给予两家公司的估值却明显不同。核心原因在于营收结构差异。
LITE当前业务重心更集中于高速光通信与数据中心相关产品,受益方向高度纯粹,业绩弹性与AI算力扩张直接挂钩。同时,其EML等高端激光器产品市占率更高,技术壁垒更深,市场愿意给予更高的成长溢价。
相比之下,COHR业务结构更加分散。除数据中心光通信外,公司仍覆盖传统电信与工业激光等领域,这些板块增速相对温和,周期属性更强,对整体盈利节奏形成拖累。即便数据中心需求改善,整体业绩弹性也被“稀释”。
第二类,是定义标准的垄断者:博通和 Marvell(MRVL)。 CPO 的普及不仅利好零部件,更利好定义规则的人。博通作为算力网络的“总调度师”,决定了系统怎么搭。而 Marvell 通过收购核心技术公司,已经在定制 AI 互联领域锁定了多家顶级云厂商的份额。
第三类,是良率的“守门员”:泰瑞达(TER)。 CPO 最让厂家头疼的就是封装良率。泰瑞达提供的晶圆级测试,是量产前必不可少的环节。随着 2026 年光模块出货量突破千万级别,泰瑞达作为测试设备的绝对龙头,将享受极高的收入弹性。
总结来说,2026 年我们将看到激光芯片率先爆发,2027 年到2028年是系统级利润的全面释放。这不再是单纯的炒作,而是已经写进订单和产线里的硬逻辑。
软件股机构散户博弈
说完算力和CPO,我们把镜头拉回到软件股。
从1月到2月中旬,标普北美软件指数累计下跌超过15%,创下自2008年金融危机以来最惨烈的单月跌幅。期间,软件板块市值蒸发规模一度进入“万亿美元量级”,而且抛售在2月仍然没有明显止步。
这显然不是一次简单的情绪性回调,而更像是资金结构发生变化后的系统性重估。仅用“AI恐慌”来概括,难以解释如此集中、持续的抛售。市场正在展开一场清晰的多空博弈。
机构全面撤退:从“增长信仰”到“生存危机”
先看机构,高盛数据显示,截至2026年2月初,对冲基金对软件行业的净敞口已降至2 % 的历史新低。与此同时,资金正大规模流向半导体及设备板块——后者净敞口升至五年高点。这种“卖出应用层、买入基础设施层”的操作,反映出机构对软件应用端在AI时代前景的深度悲观。
做空强度也前所未有。S3 Partners统计,2026年一季度,软件空头已获利约240亿美元。尤其在1月30日至2月5日的抛售高峰,空头开仓量是多头买入的两倍。
就连微软也未能幸免。1月28日微软公布Q2财报后一周内,机构增持空头头寸激增20%。高盛分析师指出:“微软正在从‘反弹股’滑向‘受压股’——7400亿美元的AI资本开支尚未转化为利润,反而压制了自由现金流。
散户逆势抄底:BTFD文化下的“黄金坑”信仰
与机构撤离形成鲜明对比,散户展现出惊人勇气。
Vanda Research数据显示,2026年2月初,散户对科技与软件股的净流入创历史新高。其中,贝莱德iShares北美扩展科技软件ETF(IGV)在截至2月9日的一个月内吸金1.76亿美元,是2024年底峰值的两倍以上。
具体个股层面,2月6日,亚马逊创下2024年8月以来最大散户单日净买入,甚至超过英伟达;微软、Palantir、Salesforce等机构眼中的“生存危机”股,散户却视其为被AI恐慌“错杀”的优质资产。
分析认为散户的抄底建立在三层逻辑之上。
第一,历史经验强化“逢低买入”信念。 2025年4月3日,因美国加征关税,标普500单日暴跌5%,散户当日注资超30亿美元,创2014年以来单日最高纪录。此后市场迅速反弹,验证了“BTFD”(Buy The Fu*king Dip)策略的有效性。如今面对AI恐慌,散户再次将其视为又一次被夸大的卖空借口。
第二、技术指标的极端信号。截至2月初,标普北美软件指数14日RSI跌至近20,创2018年以来最低,技术派视其为动能衰竭、反弹在即的信号。
第三,对巨头转型能力的信任。散户相信微软、Salesforce等企业有能力将AI集成进入现有产品线。
不过也要提醒一点:散户的“逆势信念”不等于必然胜利。Dalbar的长期行为研究显示,普通投资者因追涨杀跌等情绪化交易,长期回报往往显著落后于标普500,时间成本是散户最容易忽视的代价。
放到估值层面看,软件板块P/E虽已回落至20倍以下,但相对标普500仍存在约260%的溢价;如果未来利润增速无法回到15%以上,这种溢价就缺少足够的基本面支撑,估值中枢仍有继续下移的可能。
但另一方面,市场也确实可能走向过度反应。黄仁勋公开表示,这轮软件抛售“最不符合逻辑”,他认为AI不会消灭软件,而是重塑软件的价值链条。换句话说,争论的核心不在“是否替代”,而在“替代发生的节奏”以及“谁能把AI整合成新的收入模型”。
因此,这场多空对决的核心,并不是短期涨跌,而是盈利兑现的节奏判断。机构押注旧商业模式承压,利润释放推迟;散户押注巨头能够完成整合,实现价值升级。在当前净敞口处于低位、空头仓位较重的背景下,一旦Q2财报或指引出现边际改善,就可能触发空头回补,反弹的力度往往会被放大。
但风险并不仅限于公开市场的多空博弈。过去几年,大量软件公司在高估值环境下被私募股权基金以杠杆方式收购。如果IPO窗口持续受限、并购市场降温,相关资产的估值调整可能会通过可比公司定价机制,反向传导至公开市场。
在2026年这个转折点上,简单的“全仓抄底”或“全面做空”都缺乏胜算。真正值得做的,是在分化中选择——规避缺乏AI能力与定价权的二线SaaS公司,同时关注兼具算力资源与应用场景优势的企业,例如微软(Azure+Copilot)与亚马逊(AWS+Bedrock+Q)。AI正在重构软件行业,但重构是渐进的,而非瞬间完成。
好了,今天的视频就到这里,CPO 逻辑下你最认可哪家公司?你对软件股什么看法,欢迎评论区留言一起讨论,觉得视频内容不错,记得点赞,评论加转发,点赞过1000我会在中国农历新年加班,不去拜访亲戚要红包,996加班为大家制作英伟达财报前瞻预测视频,因为我手中掌握了很多有力的数据。这里提前祝大家新年快乐!












