Cerebras Systems 是一家美国 AI 芯片公司,成立于2015年,总部位于美国加州 Sunnyvale,由前 SeaMicro 创始人 Andrew Feldman 创立。它最大的特点,是开发了全球最特殊的 AI 芯片架构之一——“Wafer Scale Engine(晶圆级芯片)”。美股代码:CBRS,公司预计将在 2026年5月14日正式上市,股票代码为 CBRS,登陆纳斯达克。
美股投资网为你深度拆解这英伟达最大竞争对手
一、为什么Cerebras突然火了?
因为它终于证明了一件事:
“它不是PPT公司。”
过去几年,大部分AI芯片创业公司都死在一个问题:
做得出来,但没人用。
但Cerebras不一样。
它最近连续拿下两个关键订单:
1、OpenAI
2、AWS
这两个合作,直接改变了市场对它的估值逻辑。
尤其是OpenAI。
根据公开资料,双方签署的是一个超长期AI基础设施合作协议,总规模可能达到100亿-200亿美元级别。
甚至:
OpenAI还给了Cerebras 10亿美元工作资本贷款。
这在AI产业链里,非常罕见。
因为这意味着:
OpenAI不是在“采购供应商”。
而是在“扶植第二套AI算力体系”。
这件事非常重要。
二、为什么OpenAI必须扶植“英伟达替代方案”?
因为现在整个AI产业,都被英伟达卡住了。
你会发现:
如今AI行业最大的瓶颈,已经不是模型。
而是:
算力、带宽、功耗、互联、推理成本。
尤其推理(Inference)。
训练一次模型很贵,但真正长期烧钱的是推理。
ChatGPT每天几十亿次token输出,本质上都在疯狂烧GPU。
而传统GPU集群存在一个核心问题:
GPU之间通信太慢。
模型越大,GPU越多,通信开销越恐怖。
最后很多GPU时间,其实都浪费在“等待数据”。
这也是为什么:
AI行业现在真正的战争,已经从“芯片算力”升级成:
“谁能减少数据移动”。
而这,恰恰就是Cerebras最核心的技术方向。
三、Cerebras真正恐怖的地方:它不是“大GPU”
而是“整块晶圆都是一颗芯片”
传统GPU怎么做?
比如英伟达H100。
它本质是:
很多小芯片 + HBM + NVLink互联。
但Cerebras直接换了一种思路:
“不切晶圆了。”
它直接把整个300mm硅晶圆,做成一颗超级AI处理器。
这就是它最核心的技术:
Wafer Scale Engine(WSE)。
也就是:
“晶圆级AI芯片”。
你可以理解成:
别人是一堆CPU拼服务器。
它直接造了一整面“算力墙”。
四、这意味着什么?
意味着:它几乎消灭了GPU之间的数据通信瓶颈。
因为:
数据不需要跨芯片移动。
这件事对于AI推理尤其关键。
现在AI行业最大的问题之一就是:
长上下文。
比如:
100万token上下文
视频生成
Agent长期记忆
复杂推理链
这些任务,都极度吃内存带宽。
而GPU集群最大的问题,就是:
数据搬运成本越来越高。
但Cerebras的WSE架构,把大量通信直接留在片上完成。
所以它在一些超大模型推理任务里,速度会明显超过GPU方案。
根据公司公开数据:
CS-3系统在某些推理场景中,性能甚至达到英伟达DGX B200的21倍。
美股投资网研究发现:这里不是“理论峰值”。而是真实推理工作负载。这才是最可怕的地方。
五、它真正瞄准的,不是训练,而是“推理时代”
很多投资者还停留在:
“AI = 训练GPU”。
但实际上:
AI行业已经开始进入第二阶段:
Inference Era(推理时代)。
因为:
训练一次模型结束后,
未来几年真正持续爆发的,是推理需求。
Agent
Copilot
AI搜索
AI视频
AI客服
AI编程
机器人
自动驾驶
这些都需要海量实时推理。
而推理市场的核心指标,不是绝对算力。
而是:
1、延迟
2、带宽
3、成本
4、能耗
Cerebras恰恰在这些领域开始展现优势。
这也是为什么:
华尔街现在越来越多人认为:
它不是AMD那种“GPU竞争者”。
而是:
下一代AI架构路线竞争者。
六、市场最容易忽略的一点:它正在从“卖硬件”变成“AI云”
这是我认为整个故事里,最关键的一层。
因为:
卖硬件,不值高估值。
但AI云,可以。
现在Cerebras已经开始转型:
从单纯卖CS-3硬件,
转向:
AI推理云平台。
什么意思?
就是:
用户不用买机器。
直接调用它的AI推理服务。
这和AWS、CoreWeave、Lambda越来越像。
而一旦进入云模式:
市场给它的估值逻辑,会从:
“硬件公司”
变成:
“AI基础设施平台”。
这中间的估值差距,可能是数倍。
七、为什么华尔街愿意给它200多亿美元估值?
因为它现在已经不再是“实验室项目”。
财务数据开始真正爆发。
根据公开资料:
2025财年:
营收达到5.1亿美元,同比增长76%。
更关键的是:
它居然开始盈利了。
2024年还亏损4.85亿美元。
2025年已经实现GAAP净利润8790万美元。
这对于AI硬件创业公司,非常罕见。
而且:
它的剩余履约义务(RPO / backlog)高达246亿美元。
这意味着:
未来几年收入能见度极高。
八、但风险也非常巨大
很多人现在已经开始把它吹成:
“第二个英伟达”。
我认为这还太早。
因为它依然有几个巨大问题。
1、客户集中度依然很危险
以前:
87%收入来自G42。
现在:
虽然OpenAI和AWS进来了。
但本质上:
只是从“依赖G42”,变成“依赖OpenAI”。
这依然是重大风险。
因为:
一旦AI资本开支周期放缓,
或者OpenAI调整采购节奏,
它的订单波动会非常剧烈。
2、CUDA生态依然是天堑
这是所有AI芯片公司最大的问题。
很多人低估了:
英伟达真正的护城河,不是GPU。
而是CUDA。
整个AI世界:
框架、开发者、工具链、生态、优化器,
几乎都绑定CUDA。
所以:
即使Cerebras硬件更强,
也不代表客户愿意迁移。
3、它严重依赖TSMC
Cerebras的WSE-3,目前完全依赖Taiwan Semiconductor Manufacturing Company先进制程。
而问题在于:
TSMC优先级最高的客户是谁?
苹果。
英伟达。
AMD。
Cerebras虽然技术激进,
但供应链话语权并不强。
一旦先进产能紧张,
它扩张速度可能会被卡死。
九、CBRS上市后,市场会怎么交易?
我认为它大概率会走两阶段。
第一阶段:情绪狂热
原因很简单:
市场太缺“AI硬科技IPO”。
尤其:
真正有OpenAI背书的公司,非常少。
所以:
它极可能上市后直接被资金疯狂追捧。
尤其在现在AI资本市场重新升温背景下。
第二阶段:开始拼兑现能力
因为最终市场会问:
你到底能不能:
持续抢走英伟达份额?
如果不能。
估值很快会回落。
因为现在市场给它的,
已经不是普通半导体估值。
而是:
“AI基础设施革命”的估值。
十、真正值得关注的,其实不是股价
而是一个更大的趋势:
AI行业,开始第一次真正挑战英伟达架构。
过去几年:
大家都默认:
AI = GPU。
但现在开始出现另一种思路:
“也许未来AI不一定需要传统GPU集群。”
而Cerebras、Groq、Tenstorrent、甚至部分ASIC路线,
都在试图证明:
下一代AI基础设施,可以重新设计。
这才是CBRS真正重要的地方。
它未必能赢。
但它代表着:
AI世界第一次开始认真寻找“后英伟达时代”的可能性。












