<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>长程代理 on Read</title>
    <link>https://read.shun.ink/tags/%E9%95%BF%E7%A8%8B%E4%BB%A3%E7%90%86/</link>
    <description>Recent content in 长程代理 on Read</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <lastBuildDate>Sat, 02 May 2026 07:05:00 +0800</lastBuildDate>
    <atom:link href="https://read.shun.ink/tags/%E9%95%BF%E7%A8%8B%E4%BB%A3%E7%90%86/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>2026：这就是 AGI</title>
      <link>https://read.shun.ink/posts/tweet-2011491957730918510/</link>
      <pubDate>Sat, 02 May 2026 07:05:00 +0800</pubDate>
      <guid>https://read.shun.ink/posts/tweet-2011491957730918510/</guid>
      <description>&lt;p&gt;&lt;em&gt;系好安全带：你对 2030 年的憧憬，刚刚变成了 2026 年就可能实现的事。&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;作者：Pat Grady 和 Sonya Huang&lt;/p&gt;
&lt;p&gt;很多年前，一些顶尖研究者告诉我们，他们的目标是实现 AGI。我们天真地想听一个严谨的定义，于是追问：&amp;ldquo;你们怎么定义 AGI？&amp;ldquo;他们犹豫了一下，彼此试探地看了一眼，然后说出了后来成为 AI 领域某种共识的话：&amp;ldquo;嗯，我们每个人其实都有自己的定义，但当我们看到它的时候，我们就知道了。&amp;rdquo;&lt;/p&gt;
&lt;p&gt;这个小故事完美概括了我们对 AGI 具体定义的追寻。它始终难以捉摸。&lt;/p&gt;
&lt;p&gt;然而，定义虽然难以捉摸，现实却不是。AGI 已经来了，就在此刻。&lt;/p&gt;
&lt;p&gt;&lt;a href=&#34;https://x.com/deanwball/status/2001068539990696422&#34;&gt;编程智能体&lt;/a&gt;是第一个例证。更多的例证正在路上。&lt;/p&gt;
&lt;p&gt;长程代理（Long-horizon agents）在功能上就是 AGI，而 2026 年将属于它们。&lt;/p&gt;
&lt;h2 id=&#34;幸好不必纠缠细节&#34;&gt;幸好不必纠缠细节&lt;/h2&gt;
&lt;p&gt;在继续之前，值得先承认一点：我们没有提出 AGI 技术定义的学术权威。&lt;/p&gt;
&lt;p&gt;我们是投资人。我们研究市场、创始人，以及二者碰撞的产物——企业。&lt;/p&gt;
&lt;p&gt;鉴于此，我们提出的是一个功能性定义，而非技术性定义。新的技术能力必然会引出 Don Valentine 式的问题：那又怎样？&lt;/p&gt;
&lt;p&gt;答案在于现实世界的影响力。&lt;/p&gt;
&lt;h2 id=&#34;agi-的功能性定义&#34;&gt;AGI 的功能性定义&lt;/h2&gt;
&lt;p&gt;AGI 就是搞清楚事情的能力。就是这样。*&lt;/p&gt;
&lt;p&gt;* 我们理解，如此不精确的定义不会解决任何哲学争论。但务实地讲，如果你想完成一件事，你需要什么？一个能帮你搞清楚事情的 AI。过程如何，不如结果如何重要。*&lt;/p&gt;
&lt;p&gt;一个能搞清楚事情的人，具备一些基础知识、运用这些知识进行推理的能力，以及不断迭代直至找到答案的能力。&lt;/p&gt;
&lt;p&gt;一个能搞清楚事情的 AI，具备基础知识（预训练）、运用知识推理的能力（推理时计算），以及不断迭代直至找到答案的能力（长程代理）。&lt;/p&gt;
&lt;p&gt;第一个要素（知识 / 预训练）催生了 2022 年最初的 ChatGPT 时刻。第二个（推理 / 推理时计算）随着 2024 年底 o1 的发布而到来。第三个（迭代 / 长程代理）则在最近几周随着 Claude Code 和其他编程智能体跨越能力阈值而到来。&lt;/p&gt;
&lt;p&gt;具备通用智能的人可以连续数小时自主工作，不断发现并修正错误，不需要别人告诉下一步该做什么。具备通用智能的智能体也能做到同样的事。这是全新的。&lt;/p&gt;
&lt;h2 id=&#34;搞清楚事情到底意味着什么&#34;&gt;&amp;ldquo;搞清楚事情&amp;quot;到底意味着什么？&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;一个创始人给他的智能体发消息：&amp;ldquo;我需要一个开发者关系负责人。技术能力要够强，能赢得资深工程师的尊重，但又真心喜欢泡 Twitter。我们的客户是平台团队。去办吧。&amp;rdquo;&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;智能体从最显而易见的地方开始：在 LinkedIn 上搜索顶级开发者优先公司的 &amp;ldquo;Developer Advocate&amp;rdquo; 和 &amp;ldquo;DevRel&amp;rdquo;——Datadog、Temporal、Langchain。找到了数百个候选人。但职位头衔并不能揭示谁真正擅长这件事。&lt;/em&gt;&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
