人工智能正进入一个新阶段。第一代生成式人工智能系统依赖于能够处理单一任务的强大芯片,比如用于回答查询或生成文本的芯片。而下一代人工智能系统则更进一步:它们能够进行规划、推理,记住之前的操作,并利用各种工具来完成多步骤任务。因此,人工智能的经济价值不再体现在单个芯片上,而是体现在支撑这些系统的整体架构中。值得注意的是,虽然下一代人工智能系统不会减少对GPU的需求,但它们会增加对CPU、内存、网络和存储设施的利用需求。
因为任务的规划、协调、内存管理以及外部工具的调用等过程,都需要依赖这些硬件设施来完成。在智能代理系统中,CPU端的处理任务占总处理时间的50%到90%。随着系统规模的扩大,基础设施的构成也会发生变化,其中,集群层面上的CPU与GPU之间的使用比例会上升。这对市场需求有着重要影响。摩根斯坦利预计,到2030年,智能代理技术有望为调度用CPU创造325亿至600亿美元的新增市场机会,而整个数据中心的CPU市场总规模则为825亿至1100亿美元。此外,持久内存的需求也很重要:据我们的分析,到2030年,智能代理应用带来的DRAM需求量将达到15至45艾字节,这一数值相当于2027年全年DRAM供应量的26%至77%。
这种以“智能体”为核心的AI发展趋势的影响范围远远超出了那些备受瞩目的AI芯片领域。下面我们列出了那些能从中受益最多的股票。这些公司包括CPU制造商、内存供应商、存储设备厂商,以及那些从事先进封装和基板制造的企業。此外,代工厂、设备制造商和服务器生产商也能从中获益。简而言之,以“智能体”为核心的AI发展趋势拓宽了AI领域的投资范围,人们不再只关注拥有最先进的加速器,而是更注重打造能够让智能体正常运行的完整系统。
我们正在从那种只会回答问题的AI系统,转变为能够真正采取行动的AI系统。如今,AI的发展重点不再仅仅是提升模型的规模,而是构建能够持续运行、更加智能、更具自主性,并且能够大规模应用的AI系统。当前,人工智能计算所受的限制,与其说是来自硬件资源(如GPU),不如说源于内存带宽、数据传输速度、接口延迟以及系统协调方面的问题。现在的数据中心已经不再是单纯的单一芯片(GPU)结构,而是一种高度整合的系统架构。在这种架构中,每一层设计都是为了消除计算、存储和数据传输之间的瓶颈。
美股投资网获悉,人工智能正在从静态模型演变为具备自主能力的系统——这些系统能够自行规划、推理并采取行动。在这种体系中,“协调机制”与“内存功能”成为实现智能的核心要素。如今,人工智能的发展趋势是实现对整个系统的控制,包括计算、网络、推理、协调以及软件等方面,而不仅仅是单纯的计算能力(如GPU的性能)。大型语言模型在语言生成方面表现出色,但它们属于被动型工具,需要人类的引导才能发挥作用;此外,它们无法持续记住之前的操作、用户的过往行为或对环境的理解。而具备自主能力的AI则打破了这种局限,实现了自主协调、多智能体协作以及基于上下文的智能处理。它还引入了能够跨越时间、不同情境和智能体进行存储的记忆系统,从而让系统具备连续性、学习能力和适应能力。
构建智能体所需的内存和CPU资源呈逐渐增加的趋势。虽然目前,处理智能体相关任务的硬件仍以GPU为主,但在一个以推理、决策和自主性为核心的智能体世界中,让CPU与GPU协同工作就变得非常重要。智能体技术代表了企业自动化领域的下一个发展方向:它意味着从处理大规模静态数据的方式,转变为执行复杂的、多步骤的动态任务。这些日益增大的工作负载已经成了当前CPU架构的瓶颈,因此,我们需要重新思考企业级应用和云架构的设计方式,如何在投入GPU资源用于训练和推理的同时,充分利用专为推理任务而设计的CPU性能。
理解代理Al技术栈
现代人工智能领域的突破,不仅仅体现在算法上,还体现在为训练这些模型而构建的强大计算基础设施上。理解这一整套技术架构,对于了解大规模人工智能系统的运作方式至关重要。所谓“智能体人工智能”,其实是由三个相互依存的组成部分构成的:1)“大脑”(大语言模型),2)“系统框架”(用于协调各部分的机制),3)“知识库”(存储信息的系统)。
“大脑”(大语言模型)是一种专门负责处理语言理解、语言生成以及复杂推理任务的GPU。它能够对各种信息进行加工处理,并决定相应的行动方案。大语言模型利用内存层来存储相关的上下文信息,同时将新的观察结果和结论保存到内存层中,以便长期保存使用。
该系统相当于一个“控制中心”,由CPU负责协调各个组件的工作流程。它决定了各项操作的顺序(例如:规划→搜索→获取数据→分析推理→采取行动),同时还将大型语言模型与外部工具及应用程序连接起来。












