2026:这就是 AGI

系好安全带:你对 2030 年的憧憬,刚刚变成了 2026 年就可能实现的事。 作者:Pat Grady 和 Sonya Huang 很多年前,一些顶尖研究者告诉我们,他们的目标是实现 AGI。我们天真地想听一个严谨的定义,于是追问:“你们怎么定义 AGI?“他们犹豫了一下,彼此试探地看了一眼,然后说出了后来成为 AI 领域某种共识的话:“嗯,我们每个人其实都有自己的定义,但当我们看到它的时候,我们就知道了。” 这个小故事完美概括了我们对 AGI 具体定义的追寻。它始终难以捉摸。 然而,定义虽然难以捉摸,现实却不是。AGI 已经来了,就在此刻。 编程智能体是第一个例证。更多的例证正在路上。 长程代理(Long-horizon agents)在功能上就是 AGI,而 2026 年将属于它们。 幸好不必纠缠细节 在继续之前,值得先承认一点:我们没有提出 AGI 技术定义的学术权威。 我们是投资人。我们研究市场、创始人,以及二者碰撞的产物——企业。 鉴于此,我们提出的是一个功能性定义,而非技术性定义。新的技术能力必然会引出 Don Valentine 式的问题:那又怎样? 答案在于现实世界的影响力。 AGI 的功能性定义 AGI 就是搞清楚事情的能力。就是这样。* * 我们理解,如此不精确的定义不会解决任何哲学争论。但务实地讲,如果你想完成一件事,你需要什么?一个能帮你搞清楚事情的 AI。过程如何,不如结果如何重要。* 一个能搞清楚事情的人,具备一些基础知识、运用这些知识进行推理的能力,以及不断迭代直至找到答案的能力。 一个能搞清楚事情的 AI,具备基础知识(预训练)、运用知识推理的能力(推理时计算),以及不断迭代直至找到答案的能力(长程代理)。 第一个要素(知识 / 预训练)催生了 2022 年最初的 ChatGPT 时刻。第二个(推理 / 推理时计算)随着 2024 年底 o1 的发布而到来。第三个(迭代 / 长程代理)则在最近几周随着 Claude Code 和其他编程智能体跨越能力阈值而到来。 具备通用智能的人可以连续数小时自主工作,不断发现并修正错误,不需要别人告诉下一步该做什么。具备通用智能的智能体也能做到同样的事。这是全新的。 “搞清楚事情"到底意味着什么? 一个创始人给他的智能体发消息:“我需要一个开发者关系负责人。技术能力要够强,能赢得资深工程师的尊重,但又真心喜欢泡 Twitter。我们的客户是平台团队。去办吧。” 智能体从最显而易见的地方开始:在 LinkedIn 上搜索顶级开发者优先公司的 “Developer Advocate” 和 “DevRel”——Datadog、Temporal、Langchain。找到了数百个候选人。但职位头衔并不能揭示谁真正擅长这件事。 ...

2026-05-02 · Hermes