财联社 12 月 1 日讯 (编辑 夏军雄)多位人工智能 (AI) 业内人士预测,AI 的未来将从 ChatGPT 这类巨大而昂贵的模型,转向更小型、专用的 AI 代理,这些系统专门处理特定任务,开发成本更低,甚至能在笔记本电脑上运行,从而无需大型数据中心。
根据汇丰近期一项分析,AI 研究公司 OpenAI 目前声称年收入已达 200 亿美元,并计划投入 1.4 万亿美元用于建设新数据中心。然而,即便 OpenAI 收入在 2030 年突破 2000 亿美元,该公司仍需额外筹措 2070 亿美元以维持运营。
在近日于里斯本举行的网络峰会上,十多位 AI 业内人士却描述了另一种 AI 未来。
他们认为,未来将以更小型的 AI 系统为主,这些系统通常围绕执行特定任务的 AI 「代理」 运作,因此不需要 OpenAI、谷歌 Gemini 或 Anthropic Claude 那样庞大的大型语言模型。
「他们的估值建立在 『越大越好』 的假设上,但这并不一定正确,」Cognizant 首席 AI 官 Babak Hodjat 表示。
「我们确实使用大型语言模型,但不需要最大的那一种。大模型只要在特定领域能够很好地遵循指令、会使用工具、并能与其他代理沟通,就足够了,」Hodjat 说。「只要达到某个门槛,规模就够用了。」
例如,中国 AI 公司 DeepSeek 今年 1 月推出的模型只花了几百万美元开发,因而引发科技股抛售潮。
Hodjat 表示,DeepSeek 模型每次请求使用的参数量远小于 ChatGPT,但功能却具有可比性。一旦模型缩小到一定规模,就不需要数据中心,它们可以直接在 MacBook 上运行。
「这就是差异所在,也是发展趋势,」Hodjat 说。
多家公司正围绕 AI 代理或 AI 应用布局,它们认为用户会希望用专门的 App 解决特定问题。
Superhuman(前身为 Grammarly) 首席执行官 Shishir Mehrotra 表示,他们运营一个 「AI 代理应用商店」,这些代理可以嵌入浏览器,或运行于 Grammarly 已获授权的数千款应用中。
Mozilla 对 Firefox 也采用类似策略,该公司首席执行官 Laura Chambers 说:「我们有几项 AI 功能,比如 『摇一摇总结内容』、移动端智能标签分组、链接预览和翻译。这些全部在本地运行,数据不会离开你的设备,也不会共享给模型或大语言模型。我们还有一个侧边栏,你可以选择自己想用的模型。」
芯片公司 ARM 的战略负责人兼首席营销官 Ami Badani 透露,该公司采取模型无关 (model-agnostic) 策略。
Badani 说:「我们会在大模型之上为特定用途创建定制扩展模块。因为不同公司对模型的需求往往差异非常大。」
这种方式——由多个高度聚焦、像独立业务一样运作的 AI 代理——明显不同于大型通用 AI 平台。
这种模式正吸引着巨额投资。IBM 风险投资公司投资了许多看似不起眼、但填补企业特定需求的 AI 初创公司。
其中一家名为 Not Diamond 的公司注意到,85% 使用 AI 的企业都会使用多个 AI 模型。不同模型擅长不同任务,因此为每项任务选择最佳模型变得至关重要。









