上周日,我们在长文《美股AI进入执行时代,真正的赢家是这些大公司!》中重点提到的两家芯片巨头 AMD 与 INTC,本周五的表现可以说非常给力。
英特尔股价暴涨超23%,AMD同步飙升约14%。这两只股的强势表现直接带动整个半导体板块重拾升势。费城半导体指数(SOX)当日上涨约3.2%,并创下连续第18个交易日上涨的历史最长连涨纪录;该指数年初至今涨幅已超过47%。
美股投资网分析认为,这波行情不能仅仅看作“英特尔财报好,芯片股跟涨”。可以这么理解英特尔以“一己之力”,将一条被市场忽视已久的定价逻辑重新激活:
AI的硬件红利,不再只集中体现在英伟达的GPU上,而是开始向CPU、内存接口、高速互联和PCB全链条扩散。
CPU 回到台前
过去一年,市场讲 AI,基本只盯着 GPU——训练大模型拼的就是并行算力,谁的 GPU 堆得多、跑得快,谁拿话语权。
但现在节奏变了:AI 从“训练”往“推理”和“执行”走,硬件重心开始挪。推理阶段,系统要处理任务调度、数据调用、上下文管理、多任务并发,这些活本质上还是 CPU 在干,推理越重,CPU 分量越大。
这次英特尔财报就是这个逻辑的定价事件:数据中心与 AI 业务(DCAI)同比增长 22%,明显跑赢整体收入,管理层在电话会直接讲“CPU 在 AI 时代重新成为基础算力层和调度中枢”。
简单一句话:
市场在股价上,把“AI 数据中心是整套系统,不是 GPU 孤岛”这个逻辑,真正过了一遍。
AMD双线赢家
在这个框架下,英特尔暴涨不是打压 AMD,反而帮 AMD 抬了一把。AMD 真正的价值,不在于做一个“便宜版英伟达”,而在于它同时押中了两条线:
如果市场只炒 GPU,AMD 永远在英伟达后面排队;一旦市场开始按“CPU + GPU + 平台”来给估值,AMD 的角色就变成系统重构的核心受益者,而不是某个单一零部件的供应商。
所以今天盘面可以这样解读:
我们3只必買股大涨
说完“算力核心”,再看我们 2026 必買股里两只今天的强势票:RMBS 和 TTMI。
表面上看,它们离英特尔、AMD 很远,但这两只股今天涨的,其实就是“整机瓶颈”这四个字。
1)RMBS:谁解决“内存墙”,谁就涨价
RMBS 今天单日涨超 15%。
我们发布挖掘该股时其价格仅为93.57美元,截至目前累计涨幅已高达70%。
Rambus 不做 GPU,也不做传统 CPU,它做的是内存接口芯片、内存子系统 IP、安全 IP 和高速数据传输技术,本质上是“数据从内存到算力单元之间的高速通道提供商”。
AI 真正在数据中心落地之后,很多算力跑不满,问题不是芯片不够强,而是:
也就是经典的“内存墙”
4 月 22 日,Rambus 发布了专为 AI 服务器设计的 SOCAMM2 芯片组,用 LPDDR5X 做服务器内存,单条可支持最高 9.6 Gb/s 带宽,同时兼顾低功耗和高密度,是新一代 AI 服务器内存模块路线的核心拼图之一。
这让市场意识到两点:
所以 RMBS 今天涨是估值在重排位置:谁能解决内存墙,谁就开始拿走更多整机价值。
2)TTMI:高端 PCB,不再只是“板子”
TTMI 今天涨超 12%。
我们发布挖掘该股时其价格仅为66.86美元,截至目前翻了 2.3 倍!文章回顾:美股 2026年最强10只股【下集】不为人知的潜力公司 TTMI......
TTMI 做的是高性能 PCB 和高频高速互联板,是服务器、交换机等设备里最底层但不可或缺的“板子”。
在传统电子里,PCB 很容易被当成成本项;但放到 AI 服务器场景里,它的角色是:
AI 服务器复杂度每上一个台阶,对 PCB 的要求就是“层数更厚、材料更贵、工艺更难”。TTMI 在过去几个季度里,一直强调数据中心和网络相关的高端 PCB 需求强劲,订单能见度延伸,资本开支也在向高层数板和高速板倾斜。
资金今天愿意给它 10%+ 的单日涨幅,反映的是另一层逻辑:
在 AI 基础设施里,高端 PCB 正在从“可以砍价的成本”,变成“不会轻易动的底座”。谁能稳定供货,谁就更接近“算力基建”。
同时,另一只 2026 必买股 GLW 也同步走强。
GLW 是全球光纤与特种玻璃基板龙头。它涨的逻辑也很清楚:AI 数据中心越大,对光纤连接、低损耗传输、玻璃基板和物理网络基础设施的需求就越强。
我们VIP社群在3月9日在125美元附近重新入场GLW,截至目前,这一笔浮盈已经达到42%。
如果你也想这么轻松抓住翻倍行情
现在就扫码加VIP社群
浏览器打开,别用国内的浏览器
别用薇信打开,要用就用美国的浏览器
https://StockWe.com/vip 订阅美股投资网是一家专门研究美股的金融科技公司,2008年成立于美国硅谷,由前纽约证券交易所分析师Ken创立,联合多位摩根斯坦利分析师,谷歌 Meta工程师利用AI和大数据,配合十多年美股实战经验和业内量化模型,建立了一个股市数据库 https://StockWe.com/ 每天处理千万级股票数据:捕捉期权大单,实时主力资金流向、机构持仓变化、川普突发新闻,精准K线信号第一时间发到您手机APP!
一个视频彻底聊透光通信:从核心技术到投资机会
我们每天阅读几十份美国顶级投行的研报,最终发现它们不约而同地指向了一个确定性极高的结论:
在未来半年到数年之间,光通信市场将迎来爆发式增长。
说白了就是用光来传输数据,随着 AI 数据中心的算力需求飙升,当 GPU 集群从几百颗扩展到上千颗时,铜线传输数据已经不够用,必须光传输,我们在前几期的视频里面已经反复强调,感兴趣的朋友可以回头去看看。
与此同时,光通信技术本身也在持续迭代升级,关键路径非常清晰:从 800G 光模块迈向 1.6T,再进一步升级到 3.2T。这一升级浪潮,将系统性带动整个产业链上下游的协同增长。
因此,我们美股投资网接下来会为各位长期支持的粉丝,系统性拆解光通信产业链的核心环节,从关键零部件入手,逐一深入讲解,并附上对应的美股代码——不仅帮你建立完整认知体系,更希望你能在认知提升的同时,把握住真正的投资机会,实现知识与收益的双重收获。
回顾上期视频,我们就精准给出了AMD是下一个英伟达,AI硬件的万亿巨头的预测!
当时我们的核心判断是:市场从"只盯着GPU",开始转向"CPU + GPU + 内存"整套数据中心架构。而AMD,凭借其在这一架构中的关键地位,天然就是最大赢家!结果,短短几天后,AMD的股价直接突破了330美元,验证了这一判断。
其实去年7月的视频我们就把AMD列为必买股,在我们VIP社群128.4美元时就开始重仓AMD!
好,话不多说,现在我们就一起了解光通信这个庞大的产业链。
什么是光通信?
光通信,可以把它想象成一条信息高速公路——光纤是路,光信号就是在上面飞驰的数据流。
但有个问题:我们设备内部,其实根本“不懂光”,所有数据一开始都是电信号,也就是“电世界”。
而电信号有个很现实的限制——
跑不远、损耗大、速度也有天花板。
所以只要数据一旦要跑远、跑得快,就必须进入“光世界”。
这时候,光模块就登场了。
你可以把它当成一个“翻译官”。
在发送端,它把电信号翻译成光信号,把数据送进光纤这条高速路;
到了另一端,再把光信号翻译回电信号,交给服务器继续处理。
所以整个过程就是:电→光→传输→光→电。
也正因为这一步转换的存在,数据才可以实现高速、远距离、低损耗的传输。
换句话说——光模块解决的是从“能不能传”,到“传得多快多远”,再到“成本是否可控”的问题。
理解了光模块的作用,我们再来看它的形态。
在很长一段时间里,光模块的样子很简单:一个小白盒子,巴掌大,插在交换机前面,坏了拔下来换一个就行。但是,AI大模型爆发之后,这套老办法撞上了两堵墙:距离和功耗。
问题是这样的。电信号从交换机内部的芯片出发,要在电路板上走几厘米,才能到达前面板上的光模块。几厘米听起来很短对吧?但在800G、1.6T这种速度下,这几厘米反而成了“最贵的一段路”。
信号一路在衰减,你要让它跑得动,只能不断“加油门”,也就是加功率。结果是什么?电费飙升、散热压力爆炸
那怎么办?思路其实很简单:要么把光引擎挪到芯片旁边,要么干脆拿掉最耗电的零部件。目前行业里有几种新路线。
第一种叫CPO,全称共封装光学。它的做法是把光引擎和交换芯片焊在同一个基板上,电信号路径从几厘米缩短到毫米级。损耗小了,功耗降了50%,未来1.6T、3.2T全靠它。缺点是不太好维护,因为焊死了。
第二种叫LPO,线性驱动可插拔光学。它保留了传统“拔插”的便利性,但做了一刀减法:把模块里最耗电的DSP芯片直接拿掉,让交换机主芯片去驱动光模块。功耗砍半,成本也降了。短距离传输够用。
第三种叫NPO,近封装光学。它是个折中方案。光引擎不焊死在芯片上,而是放在离芯片更近的位置,传输距离缩短了,但还能拔下来维护。功耗降30%-40%,比CPO便宜,落地也快。谷歌2026年已经有千万级订单在跑。
还有像Arista提的XPO,本质上是可插拔的“增强版”——用液冷来解决超高散热问题。
如果说 CPO 和 LPO 是在钻研怎么让“光电转换”更省电,OCS 则是干脆“不转了”。它内部是一堆微小的镜子(MEMS),信号进来是光,出去还是光,靠镜子反射直接物理转向。因为它不涉及复杂的电信号处理,功耗和延迟近乎为零,而且无论速率升级到多少 T,这套硬件都能通用。谷歌现在的 AI 集群能跑得这么快,很大程度就靠 OCS 把光路直接打通。
总结一下:短期看 LPO/NPO 这种‘改良派’抢占 800G/1.6T 市场;中期看 CPO 这种‘集成派’突破物理功耗极限;而从长远的系统架构看,OCS 这种‘全光交换’才是真正能重塑智算中心能效比的终极杀器。
光通信上中下游拆解以及关键公司
现在是不是感觉被一堆名词砸得有点晕?CPO、NPO、可插拔、800G、1.6T……别说普通投资者,就连很多业内人,有时候也得停下来捋一捋。
这时候,大家千万别被名词带偏了。我们不需要钻进技术的牛角尖,而是跳出这些缩写,用产业链“上、中、下游”的框架来思考。就好比盖楼——你不用每一层都去研究砖头怎么烧,但一定要看清楚地基、结构和顶层分别是谁在把控。
最值钱的,永远是上游。逻辑很简单:谁掌握核心零部件的定价权,谁就分走行业里最大的那块蛋糕。AI数据中心正从800G向1.6T、甚至3.2T跃迁,光模块的成本里,光芯片和电芯片加起来已经占到BOM(物料清单,即总材料成本)的60%以上。而且这些芯片扩产周期长达两三年,英伟达等巨头已经靠巨额投资和长单把产能锁到了2028年——稀缺性就摆在这儿。
所以在这个框架下,你只需要盯住两个核心角色:光芯片和电芯片。光芯片是模块的“心脏”,负责电和光的转换,成本占一半以上;电芯片里最重要的就是DSP(数字信号处理器),它是“大脑”,负责高速信号的补偿和纠错,成本占15%到30%。上游芯片的毛利能超过60%,而中下游模块厂商的毛利通常只有20%到30%,还容易被供应链波动挤压。
既然这两个环节利润最厚、地位最高,那直接找龙头就完事了。
当你看到这里,你已经知道我们为了这期视频投入了多少时间和心血。如果你觉得有收获,请为我们的辛苦付出点个赞!
先说电芯片(DSP)领域:AVGO和MRVL,两家合起来占了八成以上的市场。
AVGO是绝对的老大。它不光DSP全球领先——在OFC 2026上首发了400G每通道的Taurus DSP,直接支持1.6T低功耗模块,还为3.2T和204.8T交换平台打好了底子。
更关键的是,AVGO在硅光和CPO光引擎上是全栈布局,既供货又定规则。谷歌的TPU、英伟达的“神经中枢”都离不开它的定制ASIC(专用集成电路),市占率高达90%。对于投资来说,逻辑很清楚:AI集群越做越大,DSP的功耗和信号完整性直接决定了整个系统的上限。AVGO用5纳米、3纳米的领先制程,确保了在1.6T以上的定价权碾压,AI网络已经成为它的第二增长引擎。
MRVL则是通过收购Inphi,把高端DSP和光芯片整合到了一起,跟AVGO形成了对等的双头格局。2026年MRVL预计营收约110亿美元,到2027年会加速到150亿。
今年3月,英伟达直接投了20亿美元,把MRVL拉进了自己的NVLink Fusion平台,让它从普通供应商升级成了战略合作伙伴。换句话说,MRVL就像是“迷你版的AVGO”。在云厂商自研芯片的催化下,它的估值正在被重新审视。
而我们早在今年3月,VIP社群就在81美元时以30%仓位重仓潜伏了MRVL,截至本周四,收益已成功翻倍!
再看光芯片领域:LITE和COHR,两家垄断了高端EML(电吸收调制激光器)和InP(磷化铟,一种高速光芯片材料)激光器九成以上的市场。
LITE是全球霸主,高端EML激光器芯片市占超过50%到60%。市面上主流的800G、1.6T光模块,核心光源大半出自它——一颗1.6T模块需要8颗200G每通道的EML。更厉害的是,LITE已经从卖芯片扩展到卖光引擎,从供应商变成了架构参与者。英伟达和谷歌用长单把它的产能锁到了2028年,营收预计能翻三倍。BNP直接预测它的股价可能突破1000美元。逻辑很硬:AI集群需要百万级的激光器,而LITE的InP产能极度稀缺,整个供应链绕不开它。
COHR则是全能型选手,EML、硅光、激光器全都有。英伟达今年3月同样投了20亿美元,用于研发和产能扩建。COHR正在推进6英寸InP产线,能让产能翻倍、成本降低近50%、良率大幅提升,已经逐步实现自产替代。它的股价年内涨了300%。背后的逻辑同样直接:光学互联正在成为AI集群的最大瓶颈,而COHR的产能投资直击了规模化痛点。它绑定了英伟达的硅光路线图,确保在1.6T以上的渗透率持续跃升。
但如果你以为上游就到这里,那就漏掉了最底层的那个角色——GLW。它不做芯片,也不做DSP,但它控制着光通信最底层的材料:光纤。所有光信号最终都要跑在光纤上,光纤的性能、成本、规模供给,直接决定了整个行业的“地基”。换句话说,上面的芯片和模块再先进,如果没有光纤去承载,这套系统根本跑不起来。
经常看我们频道的朋友不会陌生:GLW是我们2026年的必买股之一。我们最早在85.33美元就挖掘到了它,随后VIP社群于3月9日在125美元附近完成了重新入场。收益也已经翻倍!
我们再来看看中游。
如果说上游决定性能上限,那中游决定的就是能不能稳定交货:良率、量产爬坡、系统稳定性。从800G到1.6T,光模块不再是焊几个零件,而是要把光芯片、电芯片、封装、散热、PCB(印刷电路板)、测试全部整合成一套可量产的方案。谁整合得好,谁就能拿到大客户的长单;整合不好的,只能去低端市场拼价格。
中游里最值钱的,是那些不卖零件、直接卖系统的公司。
AVGO在中游的角色已经不是单纯的DSP供应商,而是标准制定者。它一边卖交换芯片,一边把CPO光引擎方案往前推,很多时候客户不是在选它,而是跟着它的节奏走。MRVL的打法更偏平台化,通过DSP和参考设计把1.6T的开发流程标准化,帮客户抢时间窗口。COHR则从上游光芯片直接下沉,不仅能出货完整的光模块和光引擎,还把上游的激光器优势带下来,抢的是模块厂原本的利润。LITE也一样——上面讲它是激光器霸主,到了中游,它正在从卖光源转型为卖光引擎,直接嵌入客户的CPO方案里。
方案再强,做不出来等于零。所以中游还有一类公司,专门解决“怎么把设计变成真货”。FN就是光通信领域的“台积电”——它手里没有最牛的芯片,但有最牛的高端封装和耦合能力。1.6T模块对精度的要求苛刻到离谱,FN的工艺壁垒就是它最值钱的护城河。AAOI则走了另一条路:不冲在最前沿,但能稳定量产、成本可控,特别适合云厂商的大批量采购,属于规模化交付的实干家。
再往底层看,还有两个容易被忽略的工程底座。TTMI解决的是信号在PCB上怎么跑的问题。速率越高,板材损耗和层数设计越敏感,没有高端PCB承载,再好的芯片也跑不起来。
TTMI也是我们的2026必买股之一。从当初调研时的66.86美元,到本周四的134美元,这一笔收益同样成功翻倍。
VRT解决的是散热和供电。CPO和高功率模块普及后,液冷和机柜级热管理从配套变成了刚需,没有它,整个系统的热设计会崩。
我们最后来看下游。
我们最后来看下游。如果说上游决定了“能不能做”,中游决定了“怎么做”,那下游真正定义的,其实是这件事值不值得做,以及要做到多大的规模。下游掌握的不只是预算,更是整个行业演进的风向标。
在这一层,我们首先要看的是 AMZN、MSFT、GOOG 和 META 这四大云巨头。作为整条链最直接的“钱袋子”,它们每年几千亿美元的资本开支,直接决定了光通信行业的扩张速度。但它们绝不仅是买家,更是技术路线的最终裁判。当它们发现传统方案在功耗和密度上遇到瓶颈时,会主动推动 CPO(共封装光学)甚至更激进的全光互联方案。也就是说,它们不仅决定了订单的额度,更决定了技术演进的胜负手。
而在这些云厂商之上,还有一个更核心的“架构定义者”,那就是 NVDA。在 AI 算力时代,NVDA 的角色已经从芯片供应商变成了算力系统的总设计师。它卖的从来不是孤立的 GPU,而是包含交换机、互联协议以及光电规格在内的整套体系。
2026 年,NVDA 通过对 MRVL 和 COHR 等公司的深度投资,实际上是将上游最核心的 1.6T 产能和规格与自己的架构深度锁死。这意味着,中游的产品必须符合 NVDA 定义的规则,才能拿到进入主流算力集群的门票。
而在需求和规则落地到物理系统的过程中,还有两类玩家在背后支撑。
一类是 ANET 和 CSCO 这样的网络设备商,它们负责将成千上万个光模块整合成稳定的神经网络。特别是 ANET 主导的以太网架构,是云厂商绕开封闭系统、构建开放算力平台的关键。另一类则是以 ALAB 为代表的信号修复环节。随着速率提升到 1.6T,电信号在进入光模块前就会严重失真,Retimer(重定时器)芯片就像是信号的加油站,保证了数据在还没上路之前不会崩溃。
所以总结下游这一层,你会发现它的意义并不在于谁卖了多少设备,而在于谁在定义需求,谁在约束系统,以及谁在保证整套架构的物理运行。正是这三股力量的叠加,才最终决定了上游的芯片和中游的封装,到底该朝哪个方向突围。
好了,看到这里,我相信你已经能理解光通信这盘棋的至少80%了。从最上游的光芯片和电芯片,到中游的方案整合、精密制造和工程底座,再到下游的云厂商、规则制定者、网络设备商和信号修复——整条链上谁在垄断、谁在定价、谁在决定下一轮放量节奏,基本都给你讲透了。
如果你对其中某个名词、某个环节、或者某家公司的逻辑还想彻底搞懂,点赞过2000,我会专门出一期视频,把大家最关心的那个点从头到尾讲清楚。
同时也欢迎你在评论区留下你的看法:这轮光通信行情里,你最看好哪一家公司?欢迎评论区一起讨论,我们下期再见。
在美股财经内容领域,“美股投资网”无疑是最具影响力的首选博主之一。据全网公开数据,其在微信公众号、YouTube、抖音等主流社交媒体已累计吸引逾70万高黏性粉丝,展现出强大的内容穿透力与用户覆盖广度。
一、为何被称为“美股顶流”?不靠情绪,靠数据与量化
很多人的投资决策,往往依赖盘感、小道消息或市场情绪。但“美股投资网”走的是一条截然不同的硬核路径:量化+数据驱动。
根据公开资料,该平台成立于2008年,由前纽交所分析师联合华尔街与科技大厂工程师共同打造。通过AI和大数据引擎(依托其核心工具 StockWe.com),实时处理海量市场信息。它的三大核心竞争力在于:
透视“机构底牌”:普通散户看K线,机构看订单流。平台直接挖掘期权异动、暗池大单(Dark Pool)等底层数据,让华尔街的“机构痕迹”无所遁形。
以模型取代情绪:摒弃单一的判断逻辑,深度融合基本面、技术面、市场情绪与估值,构建出严密的多维度模型评分体系。
输出“交易级”信号:拒绝泛泛而谈的宏观分析,直接提供精准的买点、目标价乃至止损逻辑。
可以说,它本质上更像是一个“微型对冲基金系统”,降维打击了传统的内容输出模式。
二、实战复盘:从选股结果看真正的实力
以其近期给出的“2026年必买股清单”为例,这份名单极具代表性。它没有盲目堆砌当前最热的明星股,而是展现了极高的“结构性选股”功力。所有标的均有历史记录可查,经得起实盘验证:
美股 2026年必买10只股【中集】不为人知的潜力公司 GLW, MU, AEP, RDW
美股 2026年必买10只股【下集】不为人知的潜力公司 TTMI, PLAB, NBIS, INOD, SMR
直接剖析几个关键实战案例:
RMBS(涨幅近70%):典型的“市场认知差 + 极高技术壁垒”组合,堪称AI与半导体IP赛道中的隐形赢家。
MU 美光科技(涨幅近75%):精准押注AI时代的核心变量——存储。完美捕捉了“HBM需求爆发 → DRAM周期反转 → 业绩弹性释放”的逻辑主线。
GLW 康宁(涨幅超100%):很多人看不懂其爆发逻辑,但其实极其清晰——“光通信 + 数据中心基础设施 = AI底层刚需”。
TTMI / PLAB / NBIS:精准锁定产业链中游(PCB、光掩膜、AI基础设施),完美诠释了“淘金热中卖铲子”的投资哲学。
这套组合策略有一个极其鲜明的特征:不是无脑追高NVDA,而是提前埋伏“下一个英伟达生态受益者”。
三、底层逻辑解码:这套选股体系究竟在选什么?
总结下来,美股投资网的选股精髓可以归纳为三步法则:
追踪聪明的钱(找资金):透过期权与暗池数据,洞察华尔街主力资金在悄悄吸筹什么。
顺应产业大势(找趋势):聚焦处于爆发初期的黄金赛道,如AI、数据中心、算力网络等。
挖掘定价错位(找错杀/低估):避开已被市场透支涨幅的明牌龙头,寻找“价值尚未被充分Price-in(定价)”的潜力公司。
这也是为什么它能屡次精准捕获AI基础设施、半导体设备、光通信等主线行情。本质上,它不是在选股票,而是在预判“资金即将涌入的下一个洼地”。
四、散户的痛点与量化模型的降维打击
很多人看完上述逻辑会觉得:“这些道理我也懂”。但残酷的真相是——你看的是滞后的结果,而美股投资网看的是实时的数据。
普通投资者难以跨越的鸿沟在于:
信息滞后:等新闻发酵、全网皆知时,往往已是接盘点。
情绪干扰:涨了恐高不敢买,跌了恐慌不敢加。
缺乏体系:投资逻辑朝令夕改,随波逐流。
而量化体系的制胜之道在于:持续跟踪资金、自动修正判断、系统化无情输出信号。 千言万语汇成一句:人会犹豫、会恐惧,但模型不会。
五、更高维度的认知:从“单点爆发”到“产业链共振”
这份名单最核心的价值,其实不在于单只股票的涨幅,而在于它构建的生态结构:
上游核心:NVDA、MU
中游制造:TTMI、PLAB
底层基建:GLW、RDW
边缘创新:RMBS、ONDS
这不是简单拼凑的几只股票,而是一张严密的AI产业捕捞网。这揭示了一个至关重要的认知:未来的超级牛股将越来越少依靠“单打独斗”,而是源于“产业链的同频共振”。
六、结语:拥抱金融大数据
“美股投资网”之所以被奉为“最牛博主”,并非因为它拥有神话般的100%胜率,而是因为它为投资者构建了一套:可复制、可验证、可持续的盈利系统。
在当今这个日益被机构巨头和量化算法主导的美股市场里,投资者最大的护城河早已不是小道消息,而是数据与模型。对于普通投资者而言,最明智的选择不是凭一己之力与市场硬刚,而是—— 尽量让自己,站在金融大数据这一边。
人工智能正进入一个新阶段。第一代生成式人工智能系统依赖于能够处理单一任务的强大芯片,比如用于回答查询或生成文本的芯片。而下一代人工智能系统则更进一步:它们能够进行规划、推理,记住之前的操作,并利用各种工具来完成多步骤任务。因此,人工智能的经济价值不再体现在单个芯片上,而是体现在支撑这些系统的整体架构中。值得注意的是,虽然下一代人工智能系统不会减少对GPU的需求,但它们会增加对CPU、内存、网络和存储设施的利用需求。
因为任务的规划、协调、内存管理以及外部工具的调用等过程,都需要依赖这些硬件设施来完成。在智能代理系统中,CPU端的处理任务占总处理时间的50%到90%。随着系统规模的扩大,基础设施的构成也会发生变化,其中,集群层面上的CPU与GPU之间的使用比例会上升。这对市场需求有着重要影响。摩根斯坦利预计,到2030年,智能代理技术有望为调度用CPU创造325亿至600亿美元的新增市场机会,而整个数据中心的CPU市场总规模则为825亿至1100亿美元。此外,持久内存的需求也很重要:据我们的分析,到2030年,智能代理应用带来的DRAM需求量将达到15至45艾字节,这一数值相当于2027年全年DRAM供应量的26%至77%。
这种以“智能体”为核心的AI发展趋势的影响范围远远超出了那些备受瞩目的AI芯片领域。下面我们列出了那些能从中受益最多的股票。这些公司包括CPU制造商、内存供应商、存储设备厂商,以及那些从事先进封装和基板制造的企業。此外,代工厂、设备制造商和服务器生产商也能从中获益。简而言之,以“智能体”为核心的AI发展趋势拓宽了AI领域的投资范围,人们不再只关注拥有最先进的加速器,而是更注重打造能够让智能体正常运行的完整系统。
我们正在从那种只会回答问题的AI系统,转变为能够真正采取行动的AI系统。如今,AI的发展重点不再仅仅是提升模型的规模,而是构建能够持续运行、更加智能、更具自主性,并且能够大规模应用的AI系统。当前,人工智能计算所受的限制,与其说是来自硬件资源(如GPU),不如说源于内存带宽、数据传输速度、接口延迟以及系统协调方面的问题。现在的数据中心已经不再是单纯的单一芯片(GPU)结构,而是一种高度整合的系统架构。在这种架构中,每一层设计都是为了消除计算、存储和数据传输之间的瓶颈。
美股投资网获悉,人工智能正在从静态模型演变为具备自主能力的系统——这些系统能够自行规划、推理并采取行动。在这种体系中,“协调机制”与“内存功能”成为实现智能的核心要素。如今,人工智能的发展趋势是实现对整个系统的控制,包括计算、网络、推理、协调以及软件等方面,而不仅仅是单纯的计算能力(如GPU的性能)。大型语言模型在语言生成方面表现出色,但它们属于被动型工具,需要人类的引导才能发挥作用;此外,它们无法持续记住之前的操作、用户的过往行为或对环境的理解。而具备自主能力的AI则打破了这种局限,实现了自主协调、多智能体协作以及基于上下文的智能处理。它还引入了能够跨越时间、不同情境和智能体进行存储的记忆系统,从而让系统具备连续性、学习能力和适应能力。
构建智能体所需的内存和CPU资源呈逐渐增加的趋势。虽然目前,处理智能体相关任务的硬件仍以GPU为主,但在一个以推理、决策和自主性为核心的智能体世界中,让CPU与GPU协同工作就变得非常重要。智能体技术代表了企业自动化领域的下一个发展方向:它意味着从处理大规模静态数据的方式,转变为执行复杂的、多步骤的动态任务。这些日益增大的工作负载已经成了当前CPU架构的瓶颈,因此,我们需要重新思考企业级应用和云架构的设计方式,如何在投入GPU资源用于训练和推理的同时,充分利用专为推理任务而设计的CPU性能。
理解代理Al技术栈
现代人工智能领域的突破,不仅仅体现在算法上,还体现在为训练这些模型而构建的强大计算基础设施上。理解这一整套技术架构,对于了解大规模人工智能系统的运作方式至关重要。所谓“智能体人工智能”,其实是由三个相互依存的组成部分构成的:1)“大脑”(大语言模型),2)“系统框架”(用于协调各部分的机制),3)“知识库”(存储信息的系统)。
“大脑”(大语言模型)是一种专门负责处理语言理解、语言生成以及复杂推理任务的GPU。它能够对各种信息进行加工处理,并决定相应的行动方案。大语言模型利用内存层来存储相关的上下文信息,同时将新的观察结果和结论保存到内存层中,以便长期保存使用。
该系统相当于一个“控制中心”,由CPU负责协调各个组件的工作流程。它决定了各项操作的顺序(例如:规划→搜索→获取数据→分析推理→采取行动),同时还将大型语言模型与外部工具及应用程序连接起来。
美股周四盘后,一波惊人的涨幅让我惊呆了!
AMD盘后涨超8%,INTC暴涨20%!
经常看我们公众号的粉丝朋友,应该还记得周日那篇重磅长文《美股AI进入执行时代,真正的赢家是这些大公司!AMZN、AMD、INTC》。
没错,我们当时就点名AMD和INTC,说AI硬件需求正从“GPU独大”转向“CPU+GPU+内存”的全栈时代。今天盘后暴涨,直接把这个逻辑狠狠验证!
当时AMD的价格 270 美元,INTC当时价格 67美元,恭喜所有上车的粉丝们,这一波上涨让你们轻松获利超 20%!
另外,美股投资网2026必买股Rambus(RMBS)今天也大涨,股价创52周新高。
我们发布挖掘该股时其价格仅为93.57美元,截至目前累计涨幅已高达55%。 文章回顾:美股 2026年10家不为人知的潜力公司【上集】为什么RMBS会大涨?因为AI智能体工作的时候,CPU和内存之间得疯狂搬数据,带宽一堵住大家全卡死。
Rambus手里握着的DDR5和HBM内存接口IP,就是专门疏通这条管道的技术。被市场重新定价、重新认识,是迟早的事。
迈威尔科技(MRVL)作为算力互联的龙头,今天再次强势上涨,股价来到了 173 美元,而我们VIP社群在 81美元时以 30%仓位重仓潜伏,截至今天,收益已成功翻倍!
此外,3月31日我们美股投资网的Top Stock组合中买入的KOPN,今天已上涨至3.44美元,而我们的买入价仅为2美元,稳稳获利72%!
CPU从配角走向舞台中央
过去两年,AI的叙事逻辑简单粗暴:谁GPU多,谁就是王。英伟达市值突破5万亿美元,全市场的资本开支都在抢H100、B200。
但进入2026年,风向彻底变了。产业已经从“训练大模型”进入“执行智能体”的阶段:模型不再被动生成文字,而是主动规划任务、调用数据库、验证结果、反复决策。所有这些“协调工作”——任务调度、状态管理、I/O搬运——全都在CPU上跑。
什么概念?摩根士丹利刚刚算了一笔账:到2030年,代理AI将为数据中心CPU市场额外带来325亿至600亿美元的增量,将整个CPU市场的规模推至825亿至1100亿美元。这是真金白银的资本开支转向。
业界有话语权的机构SemiAnalysis首席分析师Dylan Patel表示:“过去半年,整个云端市场的CPU都跑空了。到处都没有容量。”亚马逊今年部署的CPU服务器数量,同比暴增3倍。微软呢?把自己实验室的CPU都卖给了Anthropic和OpenAI,连GitHub稳定性都出了问题。
TrendForce的数据也印证了这一点:当前AI数据中心CPU与GPU的配比约为1:4到1:8,但随着AI智能体普及,这个比例将缩小到1:1到1:2。Evercore ISI分析师Mark Lipacis甚至预测,未来可能出现1个GPU搭配2到10个CPU的情况,CPU增速将全面超过GPU。
CPU的缺货还不是概念——供应链已经在真实涨价。根据美股大数据StockWe.com数据,AMD和英特尔2026年服务器CPU产能已基本售罄,两者分别计划涨价10%至15%。AMD更激进,准备在Q2和Q3分两阶段累计提价16%至17%。
现在扫码加VIP,马上解锁下一个爆发性CPU赢家!
AMD:双线作战的硬核玩家
AMD这次涨的逻辑很清晰,三个点:
首先,服务器CPU被Agentic AI重估。智能体时代,任务调度等底层控制流全靠CPU,而这正是AMD EPYC处理器的强项。富国银行预测,AMD数据中心GPU业务明年有望突破400亿美元,而服务器CPU也在同步提价,双轮驱动效应明显。
第二,GPU本身也在加速追。MI400系列预计25年下半年规模放量,这块芯片搭载432GB HBM4内存,带宽逼近19.6TB/s。而且今年2月AMD和Meta签了一个五年期、600亿美金级别的供货协议,涵盖了6吉瓦的算力容量和定制化CPU需求。此前和OpenAI的数十万颗AI芯片供应协议也不是PPT,下半年就出货。
第三、供应链上最大的护城河——AMD和台积电在3nm和N2制程上深度绑定,台积电当前的N3产能中AI相关需求占了接近六成。在地缘政治风险底下,这种绑定本身就是稀缺资源。
华尔街给AMD的估值已经看得非常高了。Stifel分析师Ruben Roy在4月20日把目标价从280美元直接拉到320美元,理由是“AI驱动的计算需求在加速计算的通用架构两端同步超出预期”。
富国银行给的更激进,345美元的目标价。目前37位覆盖AMD的分析师中有37位给出买入,共识目标价291.52美元。5月5日的Q1财报会,将是AMD第一阶段逻辑能否兑现的关键检验点。
英特尔:最极致的预期反转
如果说AMD是强者恒强,那英特尔就是“困境反转”的教科书。
周四盘后的暴涨,源于Q1财报的全面碾压:营收135.8亿美元,远超预期的124.2亿;调整后每股收益0.29美元,而华尔街的预期仅为0.01美元,整整差了28倍!
驱动这一切的核心,是数据中心CPU需求的井喷。数据中心与AI部门(DCAI)营收暴增22%,运营利润率高达31%。CEO陈立武在电话会上明确表示:“CPU正在重新成为AI时代不可或缺的基础。”
而且英特尔这把不只是CPU需求回升,还有大单层面的结构突破。
4月初,英特尔宣布加入马斯克在德州的Terafab项目,为其设计定制芯片,服务于xAI、SpaceX和特斯拉。这个单子的想象空间,可能比目前市场定价的还要大。
供应端也在主动收紧可控性。今年4月,英特尔花140亿美元回购了此前卖给Apollo的49%爱尔兰工厂股权,全面收回先进制造产能的控制权。而对Q2,公司给了极其自信的指引:营收138亿至148亿美元(预期130.7亿),每股收益0.20美元(预期0.09美元)。
当前英特尔股价年内已涨超80%,4月单月涨幅超过50%。但这一轮是否只是“报表修复式脉冲”,还需要跟踪18A的产能放量节奏和代工客户的实质性突破。SpaceX和Google的订单量级若在Q2得到进一步确认,市场会继续大幅上修估值。
浏览器打开,别用国内的浏览器
别用薇信打开,要用就用美国的浏览器
https://StockWe.com/vip 订阅
美股投资网调研总结:
短期(1–2年)最可能跑出来:AMPX
中期(2–5年)最有兑现能力:ENVX
长期(5–10年)最大潜在赢家:QS
本质是:
现实 vs 执行 vs 终极技术
二、三家公司本质差异(核心对比)
1)Amprius Technologies
路线:硅纳米线负极(已商业化)
能量密度:450–520 Wh/kg(行业最高之一)
已经出货(无人机 / 军工 / 航空)
毛利率已经转正,进入商业阶段
关键词:已经赚钱的“下一代电池”
2)Enovix Corporation
路线:3D硅负极 + 结构创新
能量密度:~900 Wh/L(体积能量密度极高)
正在量产(手机 / AR / AI设备)
刚进入规模化阶段
关键词:正在放量的“消费电子电池平台”
3)QuantumScape
路线:固态电池(终极路线)
理论优势:更安全 + 更高能量密度
主要目标:电动车(EV)
仍处于验证阶段
关键词:还没落地的“终极解决方案”
三、最重要的对比(投资必须看这个)
1)技术成熟度(决定谁先赚钱)
AMPX:已商业化(航空/军工在用)
ENVX:刚开始量产(手机/AI设备)
QS:仍在验证(汽车还没用)
现实排序:
AMPX > ENVX > QS
2)市场空间(决定天花板)
QS:EV市场(最大,万亿级)
ENVX:消费电子(千亿级)
AMPX:航空/军工(小但高利润)
天花板排序:
QS > ENVX > AMPX
3)商业壁垒(决定护城河)
AMPX:军工认证 + 航空认证(极强)
QS:车规周期(5–7年绑定)
ENVX:消费电子(切换成本低)
护城河质量:
AMPX ≈ QS > ENVX
4)执行风险(最容易被忽略)
QS:最大风险(技术+量产都未验证)
ENVX:中等(制造良率/规模问题)
AMPX:最低(已经卖产品)
风险排序:
QS > ENVX > AMPX
四、真正关键:谁“更可能赢”?
这个问题要拆成三层:
(1)谁最可能先赚钱?
答案:AMPX
原因:
已有客户(军工/无人机)
产品已经验证
毛利开始改善
它不是“未来故事”,而是已经发生
(2)谁最可能做大规模收入?
答案:ENVX
原因:
切入手机 / AI设备(量非常大)
正在进入量产阶段
一旦打进手机供应链 = 爆发式增长
(3)谁最可能成为行业终局赢家?
答案:QS
原因:
EV才是最大市场
固态电池理论上最优解
但问题是:
很多公司会死在“量产前”
五、最真实的市场判断(你一定要看这个)
现在市场其实已经在“用钱投票”:
AMPX:现实派(最被资金认可)
ENVX:成长派(博执行)
QS:梦想派(博颠覆)
六、一个更狠的理解(核心洞察)
这三家公司,其实对应三种投资模型:
AMPX
→类似 early NVDA(卖工具、先赚钱)
ENVX
→类似 early Apple供应链(放量驱动)
QS
→类似 early Tesla(颠覆但极难)
七、我给你的最终建议(很关键)
如果你是做组合:
稳一点:AMPX为主
想吃弹性:ENVX配置
想赌10x:小仓位QS
八、一句话总结
这场比赛不是“谁赢”,而是:
谁先活下来 + 谁能规模化 + 谁最终改变行业
AMPX:最先活下来
ENVX:最可能快速做大
QS:如果成功,赢走一切
研究机构 SemiAnalysis 的首席分析师(Dylan Patel)深度采访AI算力产业链前瞻
1. AI的普及从根本上改变了哪种商业逻辑?
过去 = 想法很廉价 + 落地执行非常困难。
现在 = 想法满天飞且廉价 + 落地执行极其容易(通过AI)。
这意味着→只有真正高质量的想法,才配得上投入算力去执行。用大白话总结就是,执行力不再是护城河,资本和团队的重心必须转移到“如何选择正确的想法”以及“如何销售AI产出的结果”上。
2.企业疯狂购买AI Token的驱动力是什么? 如果不跟进会有什么后果?
核心驱动力 = 效率的极度杠杆化。例如一个人花几千美元买Token,就能在几周内干完以前百人团队一年的活(如芯片逆向工程分析、全美电网建模)。
结果 = 产生“幽灵GDP”(Phantom GDP),即实际产出大幅增加但成本骤降,导致传统GDP统计失真。
如果不跟进→必然面临降维打击。如果你不消耗更多Token去创造并捕获超额价值,你就会沦为“AI时代的永久底层”,很快会被动作更快的同行完全商品化并淘汰。
3. 当前AI算力的供给瓶颈到底卡在哪里?
表面上看 = 英伟达GPU供不应求,且旧卡使用寿命在大幅延长(从5年延至7-8年),推高了云厂商的毛利。
深层瓶颈 1 →内存(DRAM):产能扩充极慢,新增绝对供给要到2028年才能就绪,这意味着内存价格还会再翻两到三倍。
深层瓶颈 2 → CPU:强化学习环境的评分机制和大量AI生成的代码运行需要极多CPU,导致CPU完全脱销。
深层瓶颈 3 →台积电(TSMC)与边缘材料:台积电资本支出在2028年可能飙升至1000亿美元,而铜箔、PCB玻璃纤维等不起眼的边缘供应链也已经全部满载,全行业都在靠“天价预付款”抢产能。
4. 大模型层的竞争格局和Token经济学呈现什么趋势?
现状 = Anthropic凭借Opus 4.7和内部的“Mythos”模型暂时领先,甚至通过限制释放节奏来控制风险,利润率极高(>72%)。
算力争夺 = Anthropic受限于算力总量,而OpenAI通过疯狂融资和囤积算力(联合微软、甲骨文等)试图用算力规模弯道超车。
核心结论→ Token需求远超基础设施的承载能力。即便二线、三线大模型厂商,也会因为头部算力不足而“卖断货”。基本上就代表,只要你能造出优质Token,市场就能全盘吃下。
5. 为什么预测短期内会出现大规模的反AI抗议?
起因 = AI带来的巨大商业重组会让普通人感到恐惧,大众会倾向于将长期存在的社会问题归咎于AI。
催化剂 = AI巨头(如Sam Altman和Dario)的公众沟通策略极差 + 频繁渲染“AI将改变世界/取代工作”的宏大叙事,加剧了普通人的焦虑感。
美股投资网应对建议→行业必须停止渲染未来的恐怖能力,转而展示AI在当下的正面赋能作用,否则公众的愤怒很快会被政客或网红武器化,引发大规模抵制。
Dylan Patel人物背景:
研究机构 SemiAnalysis 的首席分析师(Dylan Patel)深度拆解 GPU(尤其是 Nvidia)
分析 AI 算力供需(谁缺芯片、谁在囤货)
跟踪产业链(ASML设备→台积电→云厂商→ OpenAI等
周三,美股三大指数全线收涨,标普500指数创新高,纳指刷新历史高点,科技股继续主导市场。这一波涨势,背后最强的推动力就是AI。
标普500科技板块涨约 2%,成为 11个行业中表现最佳;而芯片股更是创下历史最长连涨天数,费城半导体指数连续第16个交易日上涨,涨幅约 2.7%,创下 1994年以来最长连涨记录。
(费城半导体指数十六连涨,创1994年有数据记录以来最长连涨天数)
其中,迈威尔科技(MRVL)作为算力互联的龙头,今天稳步上涨近 4%,而我们VIP社群在 81美元时以 30%仓位重仓潜伏,截至今天,收益已接近翻倍!

AMD大涨核心逻辑
今天美股最值得关注的事件之一,就是 AMD 盘中大涨近 7%。
而这波上涨,我们其实也已经提前给大家讲到了。
上周日,美股投资网就在深度长文《美股 AI 进入执行时代,真正的赢家是这两家大公司!AMZN、AMD》中明确指出:AI 硬件的需求逻辑,正在从“只看 GPU”,逐步转向“CPU + GPU + 内存”协同驱动的整套数据中心架构。今天 AMD 的强势上涨,本质上就是在验证这条主线。
第一,服务器 CPU 的需求预期,正在被重新上修。
过去市场看 AI,核心几乎都盯在 GPU 身上。但到了 Agentic AI 时代,数据中心最忙的已经不只是模型推理本身,而是任务调度、状态管理、数据搬运、I/O 和控制流。这意味着,CPU 不再只是 GPU 的附属品,而是在 AI 执行链条中重新变成不可或缺的基础设施。也正因为如此,市场开始重新上修服务器 CPU 的需求预期。
第二,AMD 的结构,比很多单线公司更有弹性。
一边是 EPYC 服务器 CPU,直接受益于 AI 工作负载从“训练导向”转向“执行导向”;另一边是 Instinct GPU,继续承接英伟达之外的外溢需求。
也就是说,很多公司只能吃一条逻辑,AMD 吃的是 CPU 回归 + GPU 外溢的双重重估。这也是为什么,AMD 这次的上涨,不只是板块带动,而更像是结构性重估。
第三,资金已经开始提前押注财报和预期上修。
今天市场对 AMD 上涨的解释,基本都集中在同一个方向:AI 需求持续强劲,目标价被上调,资金也在提前交易即将到来的财报预期。
如果后面的财报真的能进一步验证,AI 需求还在扩张,服务器 CPU 和 GPU 业务都在改善,那 AMD 这波上涨就不只是短线情绪,而很可能是一轮更完整的估值重估。
我们美股投资网VIP连续捕捉MRVL、AMD这类AI基础设施核心标的,下一个机会你准备好了吗?
特斯拉核心风险
另外一件值得重点关注的大事,就是特斯拉财报。
特斯拉一季报刚落地,股价一度跳涨4%,但是随后快速回落!
这也再次验证了我们美股投资网本周一的预警:4月17日,机构在暗池卖出7.4亿美元特斯拉股.票,再加上21亿美元大额卖单,合计超过29亿美元资金提前离场。这组数据说明一件事:在财报发布前,部分大资金已经明显转向谨慎。
第一,现金流硬气,明显超预期。
特斯拉一季度营收 223.9亿美元,低于市场预期的 226亿美元,这个本身不算惊喜。真正超预期的是自由现金流,公司做出了 14.4亿美元正值,而市场原本预期大约是 14.3亿美元流出。这说明,哪怕主业增长没有特别强,Tesla 依然具备先把现金流稳住的能力。这也是为什么财报刚出来的时候,股价第一反应是先往上冲。
第二,250亿资本开支,直接把市场拉回现实。
管理层把 2026年资本开支目标上调到250亿美元以上,相比此前大约 200亿美元的水平,直接提高了约 25%。
同时公司也明确表示,接下来几个季度会维持高投入,CFO 甚至直接提到,2026年剩余时间自由现金流会转负。这句话非常关键,因为它等于在提醒市场:这次财报里的现金流亮点,并不能简单外推到未来几个季度。
第三,投入先行,回报延后。
Tesla 这次继续推进 Robotaxi、Cybercab 和自动驾驶 rollout,也释放了更多扩张信号。但管理层同时承认,这些新业务对今年收入的贡献还不会太大,更明显的兑现可能要等到明年。说白了,就是方向已经往前走了,钱也已经开始真花了,但利润兑现还没有同步跟上。
所以,市场先兴奋,是因为现金流没想象中差;随后又冷静下来,是因为大家很快意识到,Tesla 接下来真正要面对的问题,不是要不要投入,而是投入这么大,多久才能真正转化成收入和利润。
浏览器打开 https://StockWe.com/vip 订阅
摩根大通分析师表示,亚马逊与Anthropic的这项最新合作将利好迈威尔科技(MRVL)和Astera Labs(ALAB)。“我们认为迈威尔科技和Astera Labs是两家有望从该协议中受益的关键亚马逊供应商。首先是迈威尔科技,该公司是AWS在Trainium项目(Trainium 2)上的长期ASIC设计合作伙伴,目前正处于Trainium 3的产能爬坡阶段,并有望在Trainium 4中实现更高内容占比,包括Celestial CPO、NVLink和UALink交换等。”
目前,迈威尔科技与AWS签订了一项为期五年的协议,将供应定制AI ASIC、光学DSP、AEC DSP、DCI光模块、CPO以及以太网交换芯片。
分析师指出“在Trainium 2项目中,我们认为Astera Labs正部署Scorpio‘P’系列交换芯片(PCIe头节点连接解决方案),并配套其PCIe retimer产品组合。在Trainium 3项目中,我们预计该公司将在2026年下半年推动Scorpio-X(类PCIe规模扩展互连架构)实现显著出货增长。在Trainium 4项目中,我们认为Astera Labs可能有机会支持UALink和NVLink交换协议。此外,亚马逊还使用该公司的Taurus AEC网络产品。”
根据美股投资网获悉的数据,Anthropic已经在使用超过100万颗Trainium芯片。随着Trainium 3在2026年下半年开始放量,到当年年底,这些芯片对应的算力容量预计将达到2GW。该公司与亚马逊的新协议还包括在欧洲和亚洲大幅扩展推理算力部署。
该协议还包括在AWS上推出Claude Platform。富国银行指出,这可能为Anthropic相对于第三方平台带来竞争优势。
美国银行证券部门则表示,对于亚马逊而言,这项协议可能意味着未来两年资本支出进一步上升。亚马逊当前2026年的资本支出计划为2000亿美元,较2025年的1318亿美元显著增长。
分析师Justin Post和Steven McDermott在报告中表示“OpenAI已表示将消耗2GW的Trainium算力容量(以及可能数量未披露的英伟达算力),而Anthropic现在披露的承诺最高可达5GW。总体来看,这可能占我们此前预计亚马逊到2027年将建设的15GW算力容量中的相当大一部分。”
分析师补充称“如果第一季度环比AWS业绩显示新增AI工作负载利润率较低,市场对资本支出回报的担忧可能再次出现。不过,我们认为亚马逊正越来越有能力从人工智能需求的持续增长中受益。”
最专业的美股资讯,推荐美股大数据 https://Stockwe.com/
做软件的人,现在最喜欢说的一句话是:轻资产,低门槛,可复制。这句话两三年前是对的,现在嘛,我觉得它正在变成一个陷阱,而且是那种你走进去了都不知道的那种。
吕骋,rabbit 的创始人,最近接受了一次深度采访。他说了一个判断,让我愣了一下:"现在硅谷的投资人有一个共识变化,他们觉得软件没有护城河了。你做一个软件没什么大不了,我可以用 Claude Code 去反向工程。"
这是他们做硬件、坚持做硬件的核心原因之一。
我第一反应是,这也太直接了。但你认真想想,好像不是危言耸听。
一个 AI coding agent,现在能干什么?能读懂你的产品逻辑,理解你的数据结构,然后把整个系统从头搭出来。你花了 18 个月打磨的产品,竞争对手现在可能用 3 周复制。
这不是假设,现在就在发生。
那什么还有壁垒?吕骋的答案是硬件。
他的逻辑是这样的,硬件能形成一个输入循环,只要设备在用户手里正常跑着,用户数据、行为反馈就持续进来,产品就会越来越好。这个循环,软件很难复制。
有人会说,软件也可以做用户反馈,也可以收集数据。但软件的问题是,用户随时可以卸载,随时可以切换,迁移成本几乎是零。硬件不一样。买了一个设备,它放在口袋里,天天跟你在一起,积累的是你真实的使用习惯。数据密度和软件不在一个量级。
现在很多人做 AI 产品,路子是这样的:找一个垂直场景,套一个大模型 API,加一个好看的交互,上线,推广,变现。
这条路两年前跑通,确实有人赚到了。
但现在的问题是,一个同类产品今天出现,下周就能被三家复制,再下周你的流量就开始被分走。你的差异化在哪?
如果只是提示词调教得更好,或者 UI 更好看,这个护城河大概率熬不过 6 个月。
吕骋还提到了 App Store 的问题,他说做 APP 要交苹果税,要遵守各种规则,最近苹果专门在打压生成 APP 的 APP,一大批 web coding 类应用直接被下架。就算做 WhatsApp、Telegram 上的套壳方案,这条路也已经被堵死了。
在别人的平台上做软件,你永远是租房客。房东随时可以改规则,随时可以涨价,甚至随时可以把你的门锁换了。
Siri 就是最直接的例子,苹果有什么理由允许一个比 Siri 更聪明的产品,在自己的系统里把 Siri 替代掉?话语权不在自己手里,商业终点往往就剩两种:被收购,或者死掉。
美股投资网认识几个做 SaaS 的朋友,去年都在说用 AI 加速开发,效率提升 5 倍。
今年有两个人跟我说,他们的产品被一个用 Claude Code 开发的竞品,3 周做出了 80% 的功能,定价直接砍一半。
效率提升了,壁垒反而更脆了,这个逻辑反过来想,真挺残酷的。
吕骋还提了一个细节,他们公司现在连设计工具都彻底抛掉了,Figma、Adobe,全不用,转向 Claude 与内部系统协同办公。连工具本身都在被替代,如果还觉得用这些工具做出来的产品有护城河,这个逻辑本身就说不通。
那现在该怎么办?不是要说快去做硬件,你我大概率也没那个资源。
真正值得停下来想的是:你正在建的这个东西,壁垒到底来自哪里?是技术积累、数据飞轮、用户迁移成本,是合规门槛,还是只是我做得比别人早一点?
如果是最后一种,这个早一点的优势,现在缩水的速度,比大多数人预期的要快得多。