(本文作者为 新质动能,钛媒体经授权发布)
文 | 新质动能
AI 芯片赛道,又被推上了新的高潮。
当地时间 5 月 14 日,AI 芯片公司 Cerebras Systems 正式登陆纳斯达克,股票代码为“CBRS”。公司 IPO 发行价最终定在每股 185 美元,不仅远高于此前 150 至 160 美元的发行区间,也让这场 IPO 最终募资达到 55.5 亿美元,成为 2026 年以来全球规模最大的科技公司上市交易之一。
更疯狂的是,上市首日,Cerebras 股价一度暴涨约 68%,公司市值迅速冲上约 670 亿美元。随着股价飙升,创始人兼 CEO Andrew Feldman 的持股价值也被彭博亿万富翁指数推高至 32 亿美元。
过去几年,AI 资本市场已经见过太多英伟达挑战者,但很少有公司能像 Cerebras 这样,同时具备如此强烈的技术理想主义、资本狂热和戏剧性色彩。
这家公司最著名的标签,是“ 全球最大 AI 芯片” 的制造者。与英伟达依赖大量 GPU 并联不同,Cerebras 选择了一条全新的路线:不再把晶圆切割成小芯片,而是直接把整块晶圆做成一颗超大 AI 处理器。
在很长时间里,很多半导体工程师都觉得这种想法不可能实现。但随着生成式 AI 爆发、推理需求激增,以及 OpenAI、AWS 等客户开始下场合作,这家曾经被视作“ 工程疯狂实验” 的公司,正在成为 AI 基础设施领域最受关注的新玩家之一。
年内最大科技 IPO:Cerebras 上市首日暴涨 68%
这场 IPO,从一开始就带着浓厚的 AI 狂热气氛。
根据路透社报道,Cerebras 最终以每股 185 美元完成 IPO 定价,共发行 3000 万股,募资 55.5 亿美元,成为 2026 年以来规模最大的科技公司 IPO 之一。按完全摊薄后估值计算,公司市值达到 564 亿美元。
但真正震动市场的,是上市后的表现。
5 月 14 日登陆纳斯达克后,Cerebras 股价一度暴涨约 68%,市值迅速升至约 670 亿美元。作为公司最大个人股东,Andrew Feldman 持有约 4.6% 股份,其身价因此达到 32 亿美元;另一位联合创始人 Sean Lie 的持股价值也达到 16 亿美元。
“ 这是历史上规模最大的科技公司 IPO 之一,也是历史上规模最大的半导体公司 IPO。”Feldman 在接受彭博电视台采访时表示。
而在 IPO 定价前,这场交易就已经被市场疯抢。
最初,Cerebras 仅计划以 115 至 125 美元的价格发行 2800 万股。但随着订单快速涌入,公司连续多次上调发行区间,并最终把发行规模扩大至 3000 万股。根据路透社报道,认购订单一度超过可售股份 20 倍。
这种热度,几乎已经回到了 2021 年科技 IPO 狂潮时期。
尤其在经历过去两年科技股调整后,市场原本对 AI 公司估值已经开始趋于谨慎。但 Cerebras 显然重新点燃了资本热情。
背后原因,很大程度上来自其近期迅速扩大的客户与合作版图。
今年 2 月,OpenAI 宣布与 Cerebras 达成长期合作协议,到 2028 年前采购超过 750MW 算力,总金额约 200 亿美元,并随后推出首个基于 Cerebras 芯片运行的模型。
3 月,亚马逊 AWS 也宣布,将于今年晚些时候在其数据中心部署 Cerebras 芯片。
在 AI 推理需求爆发的背景下,市场开始把 Cerebras 视作少数真正可能挑战英伟达的新变量之一。
Cerebras 的“ 反主流” 路线
从创立开始,Cerebras 就带着很强的反行业共识的特征。
Cerebras 成立于 2015 年,总部位于美国加州森尼韦尔,创始团队共有五人,包括 Andrew Feldman、Jean-Philippe Fricker、Michael James、Gary Lauterbach 和 Sean Lie。几位创始人此前都曾在服务器公司 SeaMicro 共事,而 SeaMicro 后来于 2012 年被 AMD 以约 3.34 亿美元收购。
当时整个 AI 行业的基础设施几乎都建立在 GPU 之上,但创始团队认为,GPU 原本是为图形渲染设计,并不是天然适合 AI 训练。随着模型越来越大,GPU 之间的数据通信与内存瓶颈会越来越严重。
于是,他们决定挑战半导体行业几十年的默认规则。
传统芯片制造中,一块晶圆通常会被切割成许多小芯片。但 Cerebras 选择直接把整块晶圆做成一颗芯片,也就是后来著名的 Wafer Scale Engine(WSE,晶圆级引擎)。
2019 年,公司正式发布第一代 WSE 芯片。随后又陆续推出 WSE-2、WSE-3 等产品。根据资料,最新的 WSE-3 基于 5nm 工艺,拥有 4 万亿个晶体管,可提供 125 petaflops 峰值 AI 性能。简单来说,这是一颗“ 大得离谱” 的 AI 芯片:它把原本需要几十块甚至上百块芯片协同完成的计算能力,尽量集中进一颗芯片里,每秒可完成 125 千万亿次 AI 计算,核心目标就是让大模型训练和 AI 推理跑得更快。
这种路线的核心逻辑其实很简单:
减少大量 GPU 之间的数据通信,把更多计算集中在单一超大芯片内部,其芯片大小接近半张 A4 纸。随着生成式 AI 爆发,这种思路开始重新受到关注。尤其在 AI 推理领域,Cerebras 的超大芯片因为响应速度快,逐渐获得市场认可。
与此同时,公司融资规模也一路膨胀。
早期投资方包括 Benchmark、Foundation Capital 等硅谷基金;2023 年后,Sam Altman、AMD、G42 等产业资本陆续进入。2025 年 G 轮融资时,公司估值达到 81 亿美元;2026 年 H 轮融资后,估值进一步升至 230 亿美元。
而真正改变公司命运的,是 ChatGPT 之后的 AI 浪潮。
根据彭博报道,Cerebras 早期产品其实并未获得市场认可,但随着 AI 芯片需求激增,公司开始迅速翻身。OpenAI 与 AWS 等客户的加入,也让它从一家技术实验室,逐渐变成真正意义上的 AI 基础设施玩家。
光环背后,依然面临巨大挑战
但即便如此,围绕 Cerebras 的争议与质疑,其实一直没有消失。
首先就是技术路线本身的争议。
过去几十年,半导体行业主流方向一直是“ 小芯片+先进封装+分布式计算”。英伟达、AMD 如今越来越强,也恰恰建立在 GPU 集群与生态优势之上。
而 Cerebras 选择的,却是另一条完全不同的路线:用超大单芯片减少分布式通信。
问题在于,这种架构是否真的适合未来超大规模 AI 模型,行业至今没有统一答案。尤其随着 AI 模型越来越依赖大量芯片协同训练,很多人开始怀疑:单一超大芯片路线,未来是否还能持续扩展。
其次,是生态问题。
AI 芯片行业真正难的,从来不只是芯片本身,而是软件生态。英伟达最强大的地方,并不只是 GPU 性能,而是 CUDA、开发者工具链和长期形成的软件体系。
相比之下,Cerebras 虽然硬件路线激进,但开发者生态仍明显偏弱。它需要客户重新适配架构,而这本身就意味着极高迁移成本。
另一个持续被市场关注的问题,是客户集中度。
根据彭博报道,公司去年绝大部分收入来自阿联酋客户。此前资料也显示,G42 一度贡献了 Cerebras 极高比例收入,2024 年甚至达到 85%。
这意味着,一旦地缘政治、AI 芯片出口限制或者客户策略发生变化,都可能直接影响公司增长。

此外,Cerebras 本身也是一家极度烧钱的硬科技公司。
无论是晶圆级芯片、超级计算系统,还是 AI 数据中心,都需要巨额资本投入。虽然公司收入增长迅速,但它仍处于高投入阶段。
而更现实的问题则是:英伟达已经建立起极其强大的产业惯性。
过去几年,Graphcore、SambaNova、Groq 等公司都曾被视作“ 英伟达挑战者”,但真正跨越商业化鸿沟的,目前依然只有英伟达。
而如今,资本市场给 Cerebras 的估值已经冲到数百亿美元级别。市场本质上是在押注,它未来真的能够成长为 AI 基础设施中的核心平台。这场赌局,显然还远未结束。
参考资料:
《Cerebras 公司将 IPO 定价为每股 185 美元,拟筹集 55.5 亿美元》,路透社
《Cerebras 首席执行官在完成年度最大规模 IPO 后身价高达 32 亿美元》,彭博社
《Arm 和软银在最后一刻试图收购 Cerebras》,彭博社
《这家新兴英伟达竞争对手的首席执行官希望如何抢占利润丰厚的 AI 芯片市场》,MarketWatch
《MicroVentures 投资组合公司:Cerebras 的历史和里程碑》,MicroVentures
《Cerebras Systems 完整融资历程》,综合 SEC 文件、彭博社、36 氪、雷递网、IT 之家等整理资料
更多精彩内容,关注钛媒体微信号 (ID:taimeiti),或者下载钛媒体 App















