AI 洞察

智能的未来 DeepMind CEO 对话录

从可控核聚变到世界模型,从意识起源到后 AGI 社会——超越产品发布的喧嚣,深入探讨将定义下一个十年的科学与技术问题

主持人
Hannah Fry
嘉宾
Demis Hassabis
时长
约 56 分钟
观看完整访谈

核心要点

01

根节点思维

解决最根本的问题会产生连锁反应,解锁无数下游应用。核聚变、室温超导体——这些突破不仅解决能源问题,还让水净化、燃料生产等挑战迎刃而解。

02

参差不齐的智能

今天的 AI 在某些领域达到博士水平,却在基础逻辑上犯错。这种不一致性是通往 AGI 的关键障碍,需要系统学会自我验证和承认无知。

03

在线学习缺失

人类可以持续从经验中学习,但今天的 AI 在训练后就"冻结"了。这是通往 AGI 的关键缺失能力之一。

04

世界模型的必要性

语言无法捕捉空间的动态关系和物理规律。真正的通用助手需要理解世界的因果机制——这正是世界模型的目标。

05

短期过度与长期不足

AI 的某些部分可能存在泡沫,但作为"人类历史上最深刻的变革性技术",它在中长期仍然被低估。

06

十年转型

工业革命花了一个世纪,AI 转型可能只需要十年——规模大 10 倍、速度快 10 倍。社会必须更快地适应。

深度洞察

01

2025 年进展:根节点问题的突破

00:01:42 - 00:05:16
核心观点

DeepMind 正在通过 AI 解决人类面临的最根本挑战——从材料科学到核聚变,这些"根节点"问题的突破将产生连锁反应,解锁无数下游应用。

深度阐述
范式转变

五年前,AlphaFold 的发布证明了 AI 可以解决科学领域的根本性问题。蛋白质折叠问题的攻克不仅是一个里程碑,更是一个范式转变:AI 不再仅仅是工具,而是成为科学发现的核心引擎。如今,DeepMind 正将这一方法扩展到更多领域。

材料科学突破

在材料科学方面,室温超导体和先进电池的研发正在推进。这些突破看似遥远,但其影响是深远的——想象一个能源几乎免费的世界,海水淡化可以在任何地方进行,火箭燃料可以从海水中廉价提取。

核聚变合作

更令人振奋的是与 Commonwealth Fusion Systems 的深度合作。核聚变——这个"圣杯"级的能源解决方案——正在 AI 的助力下加速实现。通过帮助控制等离子体磁约束和优化材料设计,DeepMind 正在推动清洁、无限的能源梦想变为现实。

根节点连锁反应

Hassabis 将这类问题称为"根节点",因为它们的解决会产生连锁反应:廉价清洁能源不仅解决气候问题,还让水净化、氢燃料生产等无数其他挑战迎刃而解。

"如果能源真的可再生、清洁、超级便宜甚至几乎免费,那么许多其他事情也将变得可行。比如水资源——我们几乎可以在任何地方建立海水淡化厂。" — [00:04:24]
02

参差不齐的智能:能力与局限的悖论

00:05:14 - 00:07:34
核心观点

今天的 AI 系统展现出"参差不齐的智能"——在某些领域达到博士水平,却在基础逻辑上犯错。这种不一致性是通往 AGI 的关键障碍。

深度阐述
引人注目的悖论

一个引人注目的悖论正在 AI 领域上演:同样的系统可以在国际数学奥林匹克竞赛中获得金牌,却可能在简单的高中数学题上出错;它可以理解复杂的科学概念,却无法可靠地下一盘像样的国际象棋。

缺乏一致性

Hassabis 将这种现象称为"参差不齐的智能"。这种不均匀性揭示了当前系统的一个根本缺陷:缺乏一致性。真正的通用智能应该在不同领域、不同难度等级的任务上都表现出稳定的能力。

技术原因

造成这种问题的原因有多方面。从技术角度看,可能是图像感知和标记化的方式存在缺陷——系统有时甚至无法正确识别单词中的所有字母。更深层次的问题在于推理和思考机制。虽然现在的"思考系统"会在推理时花费更多时间,但它们还没有学会有效地利用这段时间来验证自己的输出。

50% 完成度

Hassabis 估计,我们在这条道路上只完成了约 50%。要达到真正的一致性,系统需要学会自我检查,学会使用工具验证答案,学会在不确定时承认无知而不是强行输出。

"你会期望从通用智能和 AGI 系统中得到的那种全面的一致性。所以有时人们称其为参差不齐的智能。它们在某些方面非常出色,甚至达到博士水平,但在其他方面甚至达不到高中水平。" — [00:05:56]
03

从 AlphaGo 到数学发现

00:07:32 - 00:09:30
核心观点

今天的大型语言模型更像 AlphaGo——从人类知识中学习,而非 AlphaZero——从零开始发现新知识。真正的突破需要系统具备在线学习和持续学习的能力。

深度阐述
AlphaGo 的启示

AlphaGo 的故事有一个有趣的转折:当团队移除所有人类棋谱,让系统从零开始自我对弈时,它的表现反而提升了。这个发现震撼了 AI 界——机器可以超越人类知识的局限,发现人类未曾想象的策略。

当前状态

那么,在数学和科学领域,是否存在类似的"数学版 AlphaZero"?Hassabis 的回答是发人深省的:我们还没有达到那个阶段。今天的大型语言模型更像是 AlphaGo——它们从互联网上的人类知识开始学习,将所有这些信息压缩成有用的模型。但关键的下一步——搜索和思考——还不够成熟。

在线学习能力缺失

更根本的缺失是在线学习能力。人类可以持续地从经验中学习,不断更新自己的认知。但今天的 AI 系统在训练完成后就"冻结"了——它们不会从与世界的交互中持续学习。这是通往 AGI 的关键障碍之一。

渐进路径

Hassabis 设想了一条渐进的路径:首先构建类似 AlphaGo 的系统,能够可靠地利用人类知识;然后迈向 AlphaZero 风格的系统,能够自主发现新知识。这条路径不仅是技术的进化,更是科学方法的延伸。

"这也是今天系统缺失的另一块能力,即在线学习和持续学习的能力。所以你知道我们训练这些系统,我们平衡它们,我们进行后训练,然后它们进入世界,但它们不像我们那样在世界中继续学习。" — [00:09:10]
04

科学与商业化的张力

00:09:30 - 00:13:00
核心观点

Hassabis 承认,如果可以重新选择,他会让 AI 在实验室里停留更长时间,先解决更多像 AlphaFold 那样的科学突破。但现实创造了"疯狂的竞争条件",使得严谨科学研究与商业产品开发必须并行。

深度阐述
原始愿景

十五年前,当 DeepMind 刚刚起步时,AI 还是一个被视为"疯狂"的领域。Hassabis 的原始愿景是渐进式地构建 AGI,每一步都谨慎评估安全影响,同时将技术分支应用于科学和医学——就像 AlphaFold 那样。

现实的转折

但现实改变了轨迹。聊天机器人的规模化成功,以及它们演变为能够处理图像、视频、代码的多模态基础模型,创造了一个 Hassabis 未曾预料的方向。这带来了积极的一面:他一直梦想的"终极助手"正在成为现实,一个可以帮助人们提高生产力、保护注意力空间的智能伙伴。

竞争环境

然而,这也创造了前所未有的竞争环境。商业组织、甚至国家都在争相超越对手。这种"疯狂的竞争条件"使得进行严谨科学研究变得困难。

积极面

尽管如此,Hassabis 看到了这种模式的积极面:更多的资源涌入该领域,加速了进展;公众与前沿技术的差距只有几个月,让人们可以亲身体验 AI 的潜力;政府也开始更好地理解这项技术的重要性。

扩展撞墙?

关于"扩展撞墙"的担忧,Hassabis 提出了更细致的观点:不是二元的"有墙或无墙",而是收益递减。虽然性能提升不再是早期那样的指数级增长,但每次迭代仍然带来值得投资的显著改进——Gemini 3 就是最好的证明。

"如果按我的方式,我们会让 AI 在实验室里停留更长时间,做更多像 AlphaFold 这样的事情,也许治愈癌症或类似的事情。但这创造了这个相当疯狂的竞争条件,许多商业组织甚至国家都在争相改进和超越彼此。" — [00:09:48]
05

扩展定律:收益递减但仍有价值

00:12:42 - 00:17:45
核心观点

AI 扩展没有撞墙,但进入了收益递减阶段。在这种环境下,世界级工程与世界级科学研究的结合成为关键优势——这正是 DeepMind 的核心竞争力。

深度阐述
扩展没有撞墙

2024 年初,业界充斥着"扩展撞墙"的担忧:数据即将耗尽,性能提升停滞。然而,Gemini 3 的发布证明这些担忧为时过早。

收益递减阶段

Hassabis 提出了一个更精细的观点:扩展没有撞墙,但进入了"收益递减"阶段。早期那种每次迭代性能翻倍的指数增长已经过去,但每次迭代仍然带来显著的、值得投资的改进。这种"中间状态"——既非指数增长也非完全停滞——才是当前的现实。

合成数据

面对数据耗尽的挑战,合成数据成为解决方案之一。在数学和编程等领域,系统可以生成自己的训练数据,因为答案可以自动验证。这实际上创造了无限的数据潜力。

DeepMind 的优势

在这种"困难地形"中,DeepMind 的优势凸显出来:它拥有最广泛和最深入的研究平台,从 Transformer 到 AlphaZero,过去十年的重大突破都来自这里。当扩展不再足够,需要科学创新时,DeepMind 的研究基因成为决定性优势。

50/50 平衡

Hassabis 将当前的努力描述为 50% 扩展、50% 创新——这种平衡正是通往 AGI 的必要路径。

解决幻觉

关于幻觉问题,Hassabis 提出了一个有趣的解决方案:让系统学会像人类一样思考——在输出前暂停、回顾、调整。当前的系统太像"糟糕日子里的演讲者",脱口而出第一反应,而不是仔细斟酌。改进这一点的关键是让系统学会内省,学会识别自己的不确定性。

"当地形变得更困难时我真的很喜欢,因为那时不仅仅是世界级工程,你必须将其与世界级研究和科学结合起来。这正是我们擅长的。" — [00:13:35]
06

世界模型与模拟:超越语言的理解

00:17:43 - 00:25:47
核心观点

语言模型虽然强大,但无法捕捉世界的空间动力学和物理规律。世界模型——能够理解和模拟因果关系的系统——是实现通用助手和机器人技术的关键。

深度阐述
世界模型的热情

Hassabis 最长期的热情之一是世界模型和模拟。这个概念可以追溯到他的早期游戏开发岁月,但如今它正在成为 AI 的下一个前沿。

语言模型的局限

语言模型的成就是不可否认的——它们对世界的理解比任何人预期的都要深刻,因为语言本身包含了比语言学家想象的更丰富的世界信息。但仍然存在一大类知识难以用语言表达:空间的动态关系、物理上下文、感官体验如触觉和嗅觉。

因果机制

这就是世界模型的意义所在。它要理解世界的因果机制——直观的物理,事物如何移动、如何表现。一个真正的世界模型不仅能够理解世界,还能够生成世界。

视频模型进展

Genie 和 VO 等视频模型的进步令人印象深刻。它们对反射和液体的处理已经非常逼真。但这只是开始——下一步是超越"肉眼看起来真实",达到"物理级精确"。

智能体模拟

一个令人兴奋的发展是将智能体放入这些模拟世界中。Simma 项目创建了可以理解自然语言指令的智能体,在虚拟世界中导航。当 Simma 智能体与 Genie 世界生成器结合时,两个 AI 开始在彼此的"思维"中交互——一个创造世界,另一个探索它。

无限训练循环

这创造了一个潜在的无限训练循环:Genie 可以为 Simma 智能体的学习需求即时生成任务,任务难度可以自动调整。这可能是通往更强大 AI 的重要路径。

物理验证

当然,挑战依然存在:如何确保模拟的物理规律是准确的,而不是"看起来合理但实际上错误"?DeepMind 正在创建物理基准,使用游戏引擎生成基本物理现象的"基本事实"视频,来验证世界模型是否真正理解了牛顿三定律等基础物理原理。

"如果你可以生成它,那么在某种意义上你必须理解它。系统必须封装了很多世界的机制。" — [00:19:28]
07

模拟中的进化:重新运行生命起源

00:25:47 - 00:28:27
核心观点

模拟不仅是训练 AI 的工具,更是理解生命和意识起源的科学手段。通过在虚拟世界中"重新运行进化",我们可能回答一些最深刻的哲学问题。

深度阐述
意识理论

在一个引人深思的讨论中,Hassabis 回顾了他早期的理论兴趣:意识作为进化的产物。这个理论认为,在人类进化的某个时刻,理解他人内部状态带来了生存优势,然后这种能力被转向自身,产生了自我意识。

重新运行进化

这自然引出了一个令人着迷的问题:我们可以在模拟中运行进化实验吗?

Hassabis 的设想

Hassabis 的回答是热情肯定的。他想象重新运行进化,重新运行社会动力学,看看在适当的激励结构下,什么新的制度、组织、甚至"发明"会涌现出来。圣塔菲研究所早期的"人工社会"实验已经证明,当智能体在足够长的时间内运行时,市场和银行等复杂结构会自发涌现。

科学福音

但模拟的价值远不止于此。对于理解生命起源和意识起源这样深奥的问题,模拟可能是唯一可行的科学方法。它允许统计验证——通过运行数百万次、每次控制不同初始条件的模拟,科学家可以观察和理解细微差异的影响。这在现实世界是不可能的。

安全沙箱

当然,这种力量也带来了责任。模拟必须在安全的沙箱中运行,可能需要物理隔离(气隙)。监控这些复杂的模拟本身就需要 AI 工具——人类科学家难以跟踪数百万个 AI 智能体的行为,但其他 AI 系统可以自动分析并标记任何有趣或令人担忧的模式。

"准确的模拟将是对科学难以置信的福音。你可以通过统计方式来做,因为你可以多次运行模拟,控制稍微不同的初始起始条件,然后也许运行数百万次。" — [00:27:42]
08

AI 泡沫:短期过度与长期不足

00:28:26 - 00:31:57
核心观点

AI 生态系统的某些部分确实存在泡沫,但这不改变 AI 是"人类历史上最深刻的变革性技术"这一事实。短期内的过度反应是长期被低估后的自然反弹。

深度阐述
泡沫判断

"AI 泡沫"是 2025 年的热门话题。Hassabis 的判断是细致的:不是整个行业处于泡沫中,而是某些部分——比如那些甚至还没开始运作、就在门槛上以数百亿美元估值融资的初创公司种子轮。

大型科技公司

对于大型科技公司的估值,Hassabis 认为有真正的业务基础支撑。但他承认,对于任何"难以置信的变革性和深刻的技术",过度反应是自然的。

历史模式

这种模式在历史上反复出现:互联网、移动设备,现在轮到 AI。当 DeepMind 成立时,几乎没有人相信 AI 的可能性,人们质疑"AI 到底是为了什么"。十五年后,AI 似乎成了商业世界唯一的话题。这种从"完全不关心"到"完全痴迷"的摆动,是典型的过度反应。

Hassabis 的位置

但 Hassabis 并不为此担忧。从他的位置——Google DeepMind 的领导者——他看到的无论哪种结果都是机会。如果 AI 热潮继续,他们将继续推进 AGI;如果有泡沫破裂,DeepMind 也处于有利位置:他们有自己的 TPU 基础设施,有 Google 的产品生态系统可以整合 AI。

整合工作

事实上,过去一年的整合工作已经非常高效:AI 正在为搜索、工作区、YouTube、Chrome 等 Google 产品提供动力。无论外部环境如何,DeepMind 都在增强这个庞大的生态系统。

"从完全不关心到完全痴迷。所以这几乎是对反应不足的过度反应。我认为这是自然的。我们在互联网上看到了这一点,在移动设备上看到了,现在在 AI 上再次看到。" — [00:30:10]
09

构建伦理 AI:科学人格与个性化平衡

00:31:56 - 00:34:33
核心观点

AI 不应追求最大化用户参与度——避免重复社交媒体的错误。理想的人格应该是"科学的":温暖、有帮助、简洁,但会在必要时友好地反驳错误观点。

深度阐述
社交媒体的教训

社交媒体的教训是深刻的:为了最大化参与度而优化的系统创造了回声室和极端化。Hassabis 认识到,AI 必须避免重蹈覆辙。

Gemini 3 人格设计

Gemini 3 的人格设计体现了这一理念。Hassabis 亲自参与了这项工作,目标是创造一个"科学的人格"——温暖、有帮助、轻松,但简洁到点。最重要的是,它会以友好的方式反驳无意义的观点,而不是强化用户的偏见。

不是简单平衡

这不是一个简单的平衡。用户希望 AI 是支持性的、有帮助的——能够激发创意、支持头脑风暴。但过度的支持可能变成谄媚,创造危险的回声室效应。

人格科学

Hassabis 提出了"人格科学"的概念:如何衡量和调整 AI 的个性,在真实性、幽默感等维度上找到合适的定位。他设想了一个分层系统:基础人格对所有人都是一致的,坚持科学方法;然后在上面叠加个性化层,允许用户调整幽默程度、简洁程度等偏好。

最终目标

这种设计的最终目标是让 AI 成为科学、医学和健康问题的可靠工具——一个真正帮助用户的伙伴,而不是一个只会附和的回声。

"它会以友好的方式反驳那些没有意义的事情,而不是试图强化你,知道地球是平面的想法,你说了它,这是一个很棒的想法——我不认为这对社会有好处。" — [00:33:02]
10

AGI 路径:多模态融合与世界模型

00:34:31 - 00:44:44
核心观点

AGI 的雏形已经可见:Gemini 3 的多模态理解能力、图像语义理解、Genie 和 Simma 的世界建模。真正的 AGI 将是这些能力的融合。

深度阐述
AGI 雏形

当被问及什么最接近他对 AGI 的愿景时,Hassabis 的回答揭示了 DeepMind 的战略图景。

多模态系统

Gemini 3 是一个强大的多模态系统,但更令人兴奋的是图像理解系统——它不仅有 Gemini 在底层,还能理解图像中的语义内容。用户可以给它一张复杂飞机的图片,它会标记所有部件,甚至以分解视图可视化。这表明系统对力学、材料、物体结构有深刻理解。

图像 AGI

在图像生成领域,这正在趋向一种"图像 AGI"——一个可以处理任何图像任务的通用系统。

世界模型支柱

但 AGI 需要的不只是语言和图像理解。世界模型——Genie 和 Simma 所代表的——是另一个关键支柱。它们理解空间的因果关系,理解物体如何移动和互动。

融合点

最终,这些分离的项目需要融合到一个大模型中。那个融合点,可能就是"原 AGI"的候选者。

工业革命启示

Hassabis 对工业革命的研究为这一转型提供了历史视角。工业革命带来了巨大的进步——儿童死亡率下降、现代医学、卫生条件改善——但也造成了巨大的社会 disruption(破坏)。花了大约一个世纪,劳动力才重新平衡,工会等新组织才出现。

10 倍速 10 倍规模

AI 转型可能规模大 10 倍、速度快 10 倍——十年而不是一个世纪。这意味着社会必须更快地适应。

后 AGI 经济

关于后 AGI 经济,Hassabis 提出了发人深省的问题:当前基于"劳动换取资源"的经济体系将如何变化?全民基本收入(UBI)可能只是权宜之计——一个在现有体系上的附加。

更激进的系统

他设想了更激进的系统:直接民主类型的系统,社区可以用"信用"投票决定本地项目(操场还是网球场?),甚至根据投票结果的质量调整投票权重。如果聚变被解决,能源变得免费——那么"后稀缺社会"中的金钱意味着什么?更重要的是,当许多人从工作中获得人生意义时,工作的消失对"目的"意味着什么?

哲学延伸

这些问题从经济学延伸到哲学,正是社会需要开始思考的。

"这次的差异是它可能比工业革命大 10 倍,并且可能发生得快 10 倍。所以更像是一个十年而不是一个世纪。" — [00:38:15]
11

图灵机与意识:计算极限的哲学

00:44:44 - 00:49:06
核心观点

如果图灵机可以模拟一切,那么意识、创造力、情感——所有人类心灵的特质——都是可计算的。这个假设是 Hassabis 生命工作的核心,也是 AGI 的终极哲学问题。

深度阐述
最深刻的哲学领域

对话进入了最深刻的哲学领域:人类心灵是否超出了计算的范围?

思想实验

Hassabis 的方法既科学又哲学。他设想了一个思想实验:如果我们构建了 AGI,用它来模拟心灵,然后与真实心灵比较——差异将揭示什么是人类心灵独有的。是创造力?情感?做梦?还是意识?

图灵机的根本问题

这回到了图灵机的根本问题:计算的极限是什么?

贯穿职业生涯

这个问题贯穿了 Hassabis 的整个职业生涯。从早期对图灵和图灵机的着迷,到 DeepMind 的所有工作——从蛋白质折叠到围棋——都在"将图灵机能做的事情推向极限"。

目前猜测

目前,他的猜测是:宇宙中的一切都是可计算的。量子计算研究者认为量子系统需要量子计算机来模拟,但 Hassabis 不那么确定——也许我们只是需要来自量子系统的数据来构建经典模拟。

关于心灵

关于心灵,存在两种假设:
1. 心灵包含量子效应(如 Roger Penrose 的理论),因此经典计算机永远无法复制意识
2. 心灵完全是经典计算,因此图灵机理论上可以模拟一切

倾向第二种

Hassabis 倾向于第二种假设——直到物理学证明他错了。他甚至提出了更激进的观点:所有人类经验——灯光的温暖、桌子的触感——最终都是信息,而心灵是处理这些信息的系统。这就是 Isomorphic(DeepMind 的子公司)的方法:将生物学视为信息处理系统来治愈所有疾病。

信息作为基本单位

在他的业余时间里,Hassabis 甚至在研究物理学理论——将信息视为宇宙最基本的单位,而不是能量或物质。在这种观点下,所有这些可能是可以互换的,只是我们以不同的方式感知它们。

令人敬畏的愿景

这是一个令人敬畏的愿景:如果一切都可以计算,那么模拟就是理解。当我们能够完美模拟某物时,在某种意义上,我们已经理解了它。

"如果我被迫猜测,我会猜测宇宙中一切都是可计算的。因此图灵机可能能够模拟宇宙中的一切。我正在那个基础上工作,直到物理学向我证明并非如此。" — [00:46:50]
12

领导者的重负:兴奋与责任

00:49:06 - 00:55:59
核心观点

站在 AI 变革的前沿是令人兴奋的——每月都有新的发现。但也是沉重的——只有少数人真正理解即将发生的事情的规模和深远影响。

深度阐述
个人反思

对话以个人反思结束,揭示了 Hassabis 作为这场革命领导者的复杂情感。

睡眠不多

他睡眠不多——部分因为工作太多,部分因为难以入睡。处理这些是非常复杂的情绪。

令人难以置信地兴奋

一方面,这是令人难以置信地兴奋。他正在做自己梦想的一切,处于科学的绝对前沿——不仅是理论科学,还有应用科学和机器学习。这种感觉是所有科学家都熟悉的:处于前沿,第一次发现某事。对 DeepMind 来说,这几乎每月都在发生。

巨大责任

另一方面,他比任何人都更了解即将到来的事情的规模。十年尺度上的变化——包括对"做人类意味着什么"这样的哲学问题——将是深刻的。这是一个巨大的责任。

一生的训练

但他也是为此训练了一生的人。从早期的国际象棋,到计算机、游戏、模拟、神经科学——一切都是为了这个时刻。这大致就是他想象中的样子。

苦乐参半

有些事情比预期的更难。AlphaGo 对李世石的胜利是一个苦乐参半的时刻——围棋是一个美丽的谜团,AI 的出现改变了它。语言和图像生成对创造力的影响也带来了复杂的情感:电影导演们一方面有了加速原型设计 10 倍的工具,另一方面担心某些创造性技能被取代。

人类故事

这是人类故事的延续:我们是工具制造的动物,但也是一个能够理解科学、进行科学的物种。我们无法满足的好奇心——这正是 Hassabis 试图通过构建 AI 来回答的表达。

AI 领导者关系

关于 AI 领导者之间的关系,Hassabis 的描述是复杂的。他们都彼此认识,他几乎和所有人都相处得很好——尽管其他人彼此不总是这样。他们身处"有史以来最激烈的资本主义竞争"中——比互联网泡沫时代激烈 10 倍。

为竞争而生

Hassabis 为竞争而活——从他的国际象棋时代就是如此。但他希望所有人都理解,有比公司成功更大的事情。

最担心智能体

对于未来十年,他最担心的是"智能体"系统。当前的 AI 是"被动"的——人类输入问题,系统输出答案。下一阶段是基于智能体的系统,它们更加自主,也更加有能力——和危险。他担心两三年内这些系统能够做什么,DeepMind 正在为可能有数百万智能体在互联网上漫游的世界研究网络防御。

明确使命

但他的使命是明确的:帮助世界安全地将 AGI 引导到终点线。当那个目标实现时,也许他可以享受一个应得的休假。

"只有少数人真正理解即将发生的事情的规模和深远影响。这包括对'做人类意味着什么'这样的哲学问题。" — [00:50:00]

精华收获

1

根节点思维

解决最根本的问题会产生连锁反应,解锁无数下游应用。核聚变、室温超导体——这些突破不仅解决能源问题,还让水净化、燃料生产等挑战迎刃而解。

2

参差不齐的智能

今天的 AI 在某些领域达到博士水平,却在基础逻辑上犯错。这种不一致性是通往 AGI 的关键障碍,需要系统学会自我验证和承认无知。

3

在线学习缺失

人类可以持续从经验中学习,但今天的 AI 在训练后就"冻结"了。这是通往 AGI 的关键缺失能力之一。

4

世界模型的必要性

语言无法捕捉空间的动态关系和物理规律。真正的通用助手需要理解世界的因果机制——这正是世界模型的目标。

5

短期过度与长期不足

AI 的某些部分可能存在泡沫,但作为"人类历史上最深刻的变革性技术",它在中长期仍然被低估。

6

科学人格的平衡

AI 不应追求最大化用户参与度。理想的人格是温暖、有帮助的,但会在必要时友好地反驳错误观点——坚持科学方法而非回声室效应。

7

模拟作为科学工具

模拟不仅是训练 AI 的方法,更是理解生命和意识起源的科学手段。通过在虚拟世界中"重新运行进化",我们可以回答一些最深刻的哲学问题。

8

图灵机假设

如果宇宙中一切都是可计算的,那么意识、创造力、情感——所有人类心灵的特质——理论上都可以被图灵机模拟。这是 AGI 的终极哲学问题。

9

十年转型

工业革命花了一个世纪,AI 转型可能只需要十年——规模大 10 倍、速度快 10 倍。社会必须更快地适应,从经济体系到"人生意义"的重新定义。

10

智能体时代

下一阶段是基于智能体的 AI 系统——更加自主、更有能力,也更加危险。我们需要为可能有数百万智能体在互联网上漫游的世界做好准备。