文 | 字母 AI
我们可能用一个聊天机器人,换掉了治愈癌症的机会。
这并非阴谋论,而是哈萨比斯 (Demis Hassabis) 的原话逻辑。
这位诺贝尔奖得主、Google DeepMind 的 CEO、AlphaFold 的创造者,在被问到 ChatGPT 发布那一刻时,给出了一个几乎可以称得上 「反行业共识」 的回答:
「如果让我来决定的话,我会让 AI 在实验室里待得更久一些,做更多 AlphaFold 这样的事情——也许能治愈癌症之类的。」
但现实是,像 ChatGPT 这样的产品爆发,让整个 AI 行业都陷入了高速竞争。

上述内容来自 Huge Conversations 在 2026 年 4 月 7 日发布的一次访谈,在这场对话中,哈萨比斯讲清楚了四件事:
AI 真正改变世界的地方
AI 是如何偏离原本路径的
真正需要被担心的风险
人类应该怎么应对
下面,是这场对话中最值得关注的几个部分。
01 AI 真正改变世界的地方,我们很难看见
如果不是相关从业人员,大部分人对 AI 的印象还停留在聊天机器人、写作助手、或者生成图片上。
哈萨比斯在这场访谈里提到了一个很容易被忽略的事实:AI 更重要的应用,其实发生在这些产品之外。
真正重要的变化发生在另一个离日常生活很远的层面,在实验室、在数据库、在那些大多数人从未接触过的科学问题之中。
最典型的例子就是 AlphaFold。这是哈萨比斯带领 DeepMind 做出的一个系统,目标是仅凭一段蛋白质的氨基酸序列,预测出它最终的三维结构。
你可以这么想:蛋白质的结构决定了它在人体中的功能,而功能决定了疾病如何发生,也决定了药物如何起作用。
当然实际情况会复杂得多,在这里就不展开解释了。
过去,科学家想知道一个蛋白质有什么样的结构,需要花费数年时间,在实验室里反复尝试,成本动辄几十万美元,甚至更高。
很多蛋白质因为结构过于复杂,想被解析出来简直难如登天——认真的,不是开玩笑。
但 AlphaFold 把这件事变成了一次计算问题,输入一段序列,只需要几秒钟就能得到一个高度可靠的三维结构预测。
DeepMind 原本可以像行业里惯常的做法那样做一个在线服务,科学家提交一个蛋白质序列,系统算一次,返回结果。
但在一次内部会议上,哈萨比斯突然意识到,与其按需计算,不如把自然界中已知的所有蛋白质全部算完。
于是 DeepMind 在他的带领下,把大约两亿个蛋白质结构批量计算了出来,免费开放给全世界。
在某种意义上我们可以认为这是一项公益事业,毕竟这一做法意味着,结构生物学这个领域,突然多了一个随时可以调用的基础设施。
哈萨比斯解释到,今天已经有超过 300 万名科学家在使用 AlphaFold。对于许多研究者来说,这已经不只是一个 「工具」,更像一个默认存在的前提条件。
在药物研发中,AlphaFold 改变了整个流程的起点:过去的路径是在实验室里反复试错,但现在,大量的试错被提前搬到了计算机里。
过去,研究者需要先确定一个可能的靶点,再去设计分子,让它能 「贴」 在这个蛋白质上。这个过程依赖大量湿实验:做一个分子,测试一次;如果不对就再改一点,再测一次。
但在 AI 介入之后,这个逻辑开始发生变化。
在 DeepMind 拆分出来的药物公司 Isomorphic Labs 中,这一过程被重新组织成了一种 「计算优先」 的模式:AI 先在计算机中生成大量候选分子,预测它们与目标蛋白质的结合效果,同时快速检查这些分子是否会误伤人体内其他蛋白质,可能带来什么副作用……
然后,根据这些反馈不断调整分子结构,进入下一轮搜索。
整个过程变成了一种高频率的迭代搜索,原本在实验室里花费大量时间和资源的试错,被压缩到了计算机的多轮计算里。
湿实验并没有消失,只是被推到了流程的最后一环:只有少数几个最有希望的候选分子,才会真正进入实验验证。
传统路径中一款药物的研发周期大约需要 10 年,成功率只有约 10%。而这种以计算为核心的方式,至少在理论上,有机会同时改变这两个数字。
哈萨比斯自己的判断是:从现在开始,几乎所有新药的研发过程中,都会或多或少地用到 AI。
在他看来,这才是 AI 最有可能改变世界的方式。不是以任何一个爆款产品的形式出现,也不会在手机界面上反复提醒你它的存在。
它更像是一层被铺设好的底层系统,一旦建成,就会悄无声息地改变整个领域的运行方式。
也就是说,如果只看聊天机器人,我们看到的可能只是 AI 最不重要的一部分。
02 AI 正在被 「推着跑」
如果顺着哈萨比斯自己的设想,AI 的发展路径本来可以是另一种样子,更慢一点,也更 「科学家」 一点。
他在访谈里给出了一个比较罕见的表态:如果由他来决定,他会让 AI 在实验室里多待 10 年,甚至 20 年,像大型科学项目那样推进。
他给出的参照是 CERN(欧洲核子研究中心,世界上最大的粒子物理研究机构),像那样把全世界最好的科学家组织在一起,一步一步把问题拆清楚,对每一个关键环节都建立起足够清晰的理解,而不是在不完全理解的情况下快速往前推进。
在这条路径上,AI 的目标并不是尽快做出产品,而是优先解决那些最基础、最关键的科学问题——AlphaFold 就是这种思路的典型体现。
在他的设想中,这些 「慢而深」 的突破,可以在通往 AGI(通用人工智能) 的过程中,持续为人类带来回报。
但现实并不是这样。
哈萨比斯的解释很直白:技术的发展,往往不会按照预期的路径前进。
其中一个关键的转折点是语言模型的突破,以及 ChatGPT 带来的爆发式传播。
语言能力比很多人预期的要容易解决得多,像 Transformer 这样的架构,加上一些强化学习方法,就足以让模型在语言、概念和抽象表达上表现出惊人的能力。
ChatGPT 最初也只是一个研究实验,但它一被发布就迅速变成了一个全球性的产品。
它改变了整个行业的节奏,让 AI 变成了一场正在发生的激烈竞争。
大量用户开始直接接触到最前沿的 AI 能力,市场的关注点也随之发生了转移,从实验室里的长期问题,转向了可以快速落地的产品形态。
商业竞争开始加速,各家公司不得不更频繁地发布新模型,模型能力的演进也开始和用户增长、市场反馈深度绑定在一起。
哈萨比斯并没有完全否定这种加速,他承认这种发展方式也带来了几个现实的好处:原本可能需要更长时间才能落地的能力,现在可以更早进入现实世界。
今天大多数人使用到的 AI,往往只比实验室内部的版本落后几个月——这放在以前几乎是难以想象的。大量的真实使用也带来了更丰富的数据,毕竟再完善的内部测试,也难以覆盖数百万用户带来的复杂场景。
但有好处并不意味着路径是理想的,它更像是一个被现实推动出来的结果。
哈萨比斯的态度其实很清楚,他是一个科学家,但同时也是一个工程师。我们可以理解为一种理想主义者在现实面前的妥协:他知道什么是更理想的路径,但也接受这个世界并不会按照理想运行。
技术的进展在很大程度上是不可预测的,一旦某个方向率先取得突破,它就会迅速吸引资源、资本和注意力。
于是,更容易被产品化的能力被不断放大,原本可能优先推进的科学问题,则被暂时放在了后面。
从这个角度看,今天的 AI 并不是沿着 「最有价值」 的方向在前进,而是在多种力量的推动下,走上了一条更快、也更不确定的路径。
03 真正的风险不是 deepfake,是两件更大的事
关于 AI 的讨论,大多数焦点都集中在一类问题上:deepfake、虚假信息、内容失真。
注意,这里是对于大部分人而言,不是从业者,是任何一个使用 AI 的普通人。
deepfake 确实是问题,但在哈萨比斯看来,它并不是最值得担心的那一类。
他在访谈中给出了一个非常明确的排序:
第一类是 「人」 的问题。小到个人,大到国家,会不会把这些原本用于科学研究、医疗和基础设施的技术,用在有害的方向上。
这种风险并不新,但 AI 让它的规模和效率发生了变化。一个原本只在小范围内产生影响的能力,一旦被放大,就可能带来完全不同级别的后果。
第二类是 AI 本身的问题。准确地说,是随着 AI 从 「工具」 变成能够独立完成任务的系统,这种变化所带来的不确定性。
哈萨比斯提到,今天的系统还不具备这种能力,但在未来几年内,随着 AI 进入所谓的 「agentic」 阶段 (也就是能够自主执行完整任务的阶段),问题会变得更加严峻。
关键并不在它是否足够智能,在于我们是否能够确保它始终按照既定目标行事,不会绕过规则,也不会在执行过程中偏离原本的意图。
这在技术上是非常困难的,因为系统越智能,它能够找到的捷径也就越多,而这些捷径并不一定符合设计者最初的预期。
哈萨比斯认为,这两类风险是接下来几年需要重点面对的问题。
相比之下,当前最常被讨论的 deepfake 和虚假信息,更像是 「已经发生的问题」,它们需要被解决,也有相对明确的技术路径,比如通过水印系统来标记 AI 生成内容:DeepMind 内部就开发了类似的技术 (SynthID),用于识别和追踪生成内容的来源。
如果把整个风险结构看作一个时间轴:短期我们面对的是信息层面的混乱;而中期,更严肃的问题,是能力层面的失控。
至于后期,现在谈论后期还为时过早 (bushi)。
在这个意义上,哈萨比斯提到点:真正需要被关注的,并不是 AI 能说什么,而是它能做什么。
当 AI 开始从 「回答问题」 走向 「执行任务」,风险的性质也会随之发生变化。
换句话说,我们正在谈论的很多风险只是发生在信息层面,而我们真正需要警惕的,是正在逼近的 「行动」。
这话听起来有些科幻小说质感,可能很多人都设想过,有朝一日出现的超级智能觉醒出了 「自我意识」,然后反过来替代甚至统治人类。
哈萨比斯本人也表示自己读了很多科幻小说,他最爱的是 Iain Banks 的 Culture 系列,那是一个 post-AGI 的世界,书里发生在一千年之后,但他觉得其中一些情节可能在 50 年内就成立。
不过他本人对此的设想比较美好:风险被解决了,人类安全度过了 AGI 时刻,AGI 已经在每个人的口袋里,对社会有益,然后用来攻克他所说的 「科学中的根节点问题」,像是能源、医疗、材料什么的。
04 把自己浸入每一种可用的 AI 工具里
如果把前面的讨论继续往前推,很容易走到一个问题:当 AI 开始参与科学发现、参与决策、甚至开始执行任务,人类还剩下什么?
换句话说,「人类为什么特别」?
这个问题在访谈后半段被非常坦诚地提了出来:主持人说,她发现自己在做一件人类历史上反复在做的事情,试图找到一个理由,证明 「我们是特殊的」。
我们曾经以为地球在宇宙的中心,后来发现不是;我们以为只有人类会哀悼,后来发现大象也会;我们以为只有人类能创作艺术,但现在,AI 也可以画画、写作、作曲。
每一次边界被打破,人类都会重新问一遍这个问题:我们到底为什么特殊。
对于这个问题,哈萨比斯并没有直接给出一个答案,我觉得这个问题也很难被简单的回答出来。
他提到了一个经典的计算理论框架:图灵机。
从理论上讲,一台通用计算机可以计算任何 「可计算」 的问题;在很多神经科学家的理解中,人脑本身也可以被看作是一种近似的计算系统。
如果这个前提成立,那么人类的大脑和我们正在构建的 AI 系统,在某种意义上是同一类东西。也正因如此,AI 才有可能不断逼近甚至超过人类在某些能力上的表现。
而如果连智能本身都可以被复现,那么真正值得追问的,可能不再是 「我们和 AI 有什么不同」,而是 「我们到底在试图理解什么」。
哈萨比斯在访谈中提到,他小时候最喜欢的学科其实是物理。
吸引他的不是应用,而是那些最基础的问题:时间是什么?意识是什么?宇宙是如何运作的?
但这些问题,直到今天依然没有答案。
而他做 AI 的一个核心动机,就是把它当作一种工具,去帮助人类理解这些问题。
从这个角度看,AI 并不只是一个替代人类能力的系统,更像一个被用来放大认知边界的工具。
这也解释了为什么,在谈到未来时,他的语气反而很乐观:如果风险能够被控制,AI 可以被用来解决那些 「根节点问题」,那些一旦被突破,就会带来成体系的变化的问题。人类最终甚至可以把这种能力带出地球,延伸到更远的地方。
但这些都还是远景,我们还是要回到更现实的问题:对于今天的人来说,该怎么办?
哈萨比斯的建议很朴素,他在访谈里说,他每次去大学演讲,都会重复同一句话:
「跟上这股潮流。」
对于每个想要参与 AI 未来的人,哈萨比斯的建议是把自己浸入到这些工具里,去理解它们,使用它们,成为一个 「被放大的人」。
原因很简单,即使是在最前沿的实验室内部,大量精力也只能用于打磨模型本身,但这些模型真正可以被用来做什么,还有巨大的空间没有被探索。
也就是说,能力已经在那里了,但应用还没有被穷尽。
这也意味着,对那些能够理解这些工具、并把它们应用到新领域的人来说,机会正在迅速扩大。
他给出了一个非常具体的判断:今天的一个年轻人,完全有可能借助这些工具,在别人没有想到的方向上,做出一家价值数十亿美元的公司。(他举的例子是 OpenClaw。)
把整场对话看下来,它其实给出了一个矛盾但真实的图景:一方面,AI 正在被加速推进,风险正在逼近;另一方面,AI 也打开了一个前所未有的机会窗口。
我们可能确实用一些更容易被产品化的能力,暂时换掉了某些更重要的可能性。
但事情已经发生,人类能做的或许并不是去纠正这条路径,而是尽可能理解它,并在其中找到自己的位置。
在对话的最后,主持人问了一个很感性的问题:你希望别人如何评价你的一生?
而哈萨比斯对此的回答是:「我希望他们会说,我的一生,对人类是有帮助的。」














