来源
- 原始链接:https://youtu.be/JNyuX1zoOgU?si=BVKISgiPppN7x02D
- 来源类型:视频逐字稿
- 来源标题:Demis Hassabis(DeepMind)访谈:AGI 技术进展、AI 在科学领域的应用与创业建议
Demis Hassabis 访谈:AGI 技术进展、科学发现与 Agent 路径
视频:How to Build the Future: Demis Hassabis
这次访谈的价值不在于 Demis 又说了一遍 AGI 很快,而在于他把 DeepMind 路线里的几条线串起来了:记忆与持续学习、AlphaGo 式搜索、Agent、科学发现、多模态世界模型,以及深科技创业在 AGI 时间线下的防御性。
一、AGI 还缺什么:长期推理、持续学习、记忆与一致性
背景:Demis 对当前大模型路线的判断偏谨慎乐观。他认为预训练、RLHF、思维链等组件大概率会进入最终架构,但这些还只是组件,距离完整 AGI 仍有几个关键缺口。
现有的大规模预训练、RLHF、思维链等组件很可能都会成为 AGI 最终架构的一部分;但持续学习、长期推理、记忆的若干方面,以及系统整体的一致性,仍然没有解决。这些能力都会是 AGI 所必需的。
兴趣匹配度高。这里的关键点是把 AGI 缺口从笼统的能力不足,拆成了几个可工程化追踪的模块:持续学习、长期推理、记忆、一致性。
大脑会在睡眠中重放重要经历,把新知识平滑整合进已有知识库;早期 DQN 也借鉴了这种经验回放。但今天把所有东西塞进上下文窗口仍像胶带拼接,哪怕能存很多,找到当下决策真正相关的信息也有成本。
兴趣匹配度高。这句话很适合放进上下文工程的反常识判断里:长上下文只是容量,智能记忆还需要筛选、压缩、检索、重组和巩固。
百万级上下文窗口看似很大,但如果把上下文当作工作记忆,并试图把正确、错误、重要、不重要的信息全塞进去,这仍然很粗暴。如果处理实时视频,百万 token 可能只够约二十分钟,远不足以理解一个人一两个月的生活。
兴趣匹配度高。它直接击中个人 AI 和长期记忆系统的设计问题:真正的个人智能体不能靠无限上下文解决长期陪伴,需要主动形成可用记忆。
二、Agent 路径:主动解决问题,而不是被动补全文本
背景:Demis 把 DeepMind 早期的 Agent、强化学习和搜索路线,与今天的基础模型连接起来。他的判断是:要到 AGI,系统必须能主动为人解决问题,Agent 是这条路的自然形式。
DeepMind 从一开始就在做能自主完成目标、主动决策和规划的 Agent。今天模型里的思考模式和思维链推理,可以看作 AlphaGo 开创的一些思想在基础模型时代的回归,包括蒙特卡洛树搜索等旧方法在更大尺度上的重新使用。
兴趣匹配度高。这不是把 Agent 理解成工具调用壳,而是把它放回 DeepMind 的连续谱系里:搜索、规划、强化学习、世界模型、基础模型,最后合成一个主动系统。
当前缺少持续学习,是 Agent 还不能完整执行任务的原因之一。它们现在能处理任务片段,也能拼接出很酷的东西,但不能很好适应具体场景。要让 Agent 真正做到交给它就能自己搞定,必须让它学习所在环境的具体上下文。
兴趣匹配度高。这里可以转化成一个 Agent 评估标准:单次任务能力只是下限,真正的 Agent 需要在环境里积累上下文,并把上下文变成后续行动优势。
要达到 AGI,必须有能主动为你解决问题的系统,因此 Agent 是通往 AGI 的路径。但当前仍在实验期,还没有看到大量 Agent 长时间运行后产出足以匹配投入的结果;真正价值可能在未来六到十二个月显现。
兴趣匹配度中高。这是一个很克制的判断:方向正确,兑现程度仍有限。它能帮助过滤 Agent 热潮里只演示片段、不验证长期产出的内容。
未来可能会有成百万个智能体组成群体,一起处理任务;也可能让单个或少量智能体沿多个方向思考,再把结果集成起来。
兴趣匹配度中高。推理成本下降以后,计算不会闲置,而会被并行思考、多智能体协作和结果集成吃掉。这个判断适合放进多 Agent 系统设计的长期假设里。
三、小模型和端侧模型:不是降级版,而是系统架构的一环
背景:Demis 对模型规模的判断比较实用:前沿能力需要最大模型,但真正进入产品和日常环境时,小模型、端侧模型、本地隐私和云端编排会形成组合系统。
前沿能力需要最大模型,但 Google DeepMind 的核心能力之一,是把这种能力快速蒸馏进更小模型。目前还看不到明确的信息密度理论极限,前沿模型半年到一年后的能力可能进入很小的端侧模型。
兴趣匹配度高。这个判断把小模型从便宜替代品,重新定义为前沿能力的压缩和分发机制。
小模型的价值不只是便宜,还在于速度带来的更快迭代;即便只有前沿模型九成到九成五的能力,也可能通过迭代速度赚回更多收益。未来个人设备、家庭机器人等会用本地强模型处理私密音视频,只在特定情况下调用云端前沿模型。
兴趣匹配度高。这是一个清晰的产品架构判断:本地模型负责低延迟、隐私、安全和持续交互,云端模型负责少数高难度调用。
四、科学发现:AGI 作为根节点问题的解决器
背景:Demis 仍然把 AI 视为科学的终极工具。AlphaFold 不是孤立成就,而是一个范式样本:用 AI 在巨大搜索空间里找到可验证、可推广的解。
最终目标是拥有一个完整的虚拟细胞,可以对它施加扰动,并得到足够接近实验结果的输出,从而跳过大量搜索步骤,并生成合成数据训练其他模型。
兴趣匹配度高。这是科学 AI 的核心机制:不是只做预测器,而是构建可控仿真系统,用仿真压缩实验搜索空间。
复杂系统建模的诀窍,是选出一个复杂度切片:既足够自洽,又能近似输入输出,从而先专注于一个相对封闭的子系统,比如细胞核。
兴趣匹配度高。这句话对工程和科研都可复用。面对复杂系统,第一步不是追求完整模型,而是找到边界清晰、可验证、可推进的切片。
AI 一直被视为科学的终极工具:先解决智能,构建 AGI,再用它去解决其他根节点科学问题,打开新的发现分支。
兴趣匹配度高。这里的 AGI 价值不是自动化白领任务,而是作为科学发现放大器,优先攻击能够解锁多个领域的根问题。
适合 AlphaGo、AlphaFold 式突破的问题,通常有巨大的组合搜索空间、明确目标函数,以及足够数据或能产生同分布合成数据的模拟器。
兴趣匹配度高。这是非常实用的问题选择标准:大搜索空间、清晰目标函数、数据或模拟器。满足这三个条件的问题,更可能被当前 AI 范式快速推进。
真正的科学推理不只是解已有问题,而是提出有趣的新假设;如果要超出现有知识边界,就不能只是模式匹配,而需要某种类比推理。
兴趣匹配度高。它指出了科学智能的下一层:从答案机器变成问题机器。能提出值得研究的新假设,才算跨过已有知识边界。
五、AGI 时间线下的创业与深科技判断
背景:访谈后段对创业者的建议很有现实意义。Demis 的核心判断是,如果一个深科技项目今天开始,AGI 很可能在十年旅程中途出现,所以项目设计必须把这个变量纳入。
创业者需要判断 AI 技术将走向哪里,并把它与另一个深技术领域结合;涉及原子世界的跨学科团队,在可预见未来更不容易被基础模型更新淹没。
兴趣匹配度中高。这里给出了 AI 创业的防御性来源:不是套 API,而是把 AI 与材料、医药、生物、实验系统等现实世界闭环结合。
如果 AGI 时间线大约在 2030 年,而深科技通常是十年旅程,那么今天启动项目时必须考虑 AGI 会在中途出现,并思考如何利用它。
兴趣匹配度高。这是长期项目规划的关键变量。深科技创业不是押注模型今天能做什么,而是设计一条能吸收未来 AGI 能力的路径。
未来通用模型可能会调用 AlphaFold 这类专用系统作为工具,而不是把所有能力塞进一个巨型大脑。
兴趣匹配度高。这个判断很适合类比 Agent 架构:AGI 未必是一个单体巨脑,更可能是一个会调用专用模型、模拟器、数据库和实验系统的编排层。
六、多模态、世界模型与机器人
背景:Demis 强调 Gemini 从一开始就是多模态模型。这个选择短期更难,但长期对世界模型、机器人和具身智能有结构性价值。
Gemini 从一开始就是多模态模型,虽然早期更难,但长期会带来收益;它对世界模型、Genie、机器人模型都很重要,机器人基础模型会建立在多模态基础模型之上。
兴趣匹配度中高。多模态不是界面功能,而是世界模型的底座。对机器人来说,语言、视觉、动作和环境理解需要在同一架构中被联合建模。
整体判断
这段访谈最值得保留的主线是:DeepMind 对 AGI 的理解一直不是聊天机器人路线,而是主动系统路线。大模型提供底座,搜索和强化学习提供规划机制,记忆和持续学习提供时间连续性,多模态提供世界模型,科学发现提供最高价值场景。
对汉松最有用的三个判断:
- 长上下文不是长期记忆。长期智能需要选择、压缩、检索、巩固和情境适应。
- Agent 的关键不是能不能调用工具,而是能不能在真实环境中持续学习,并把积累转化为后续行动优势。
- AGI 更像一个会调用专用模型和实验系统的编排层,而不是把所有能力塞进一个单体模型。