<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Software 3.0 on Read</title><link>https://read.shun.ink/tags/software-3.0/</link><description>Recent content in Software 3.0 on Read</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Fri, 01 May 2026 18:04:00 +0800</lastBuildDate><atom:link href="https://read.shun.ink/tags/software-3.0/index.xml" rel="self" type="application/rss+xml"/><item><title>Karpathy 总结 Sequoia Ascent 2026 炉边谈话：LLM 远不止加速已有事物</title><link>https://read.shun.ink/posts/tweet-2049903821095354523/</link><pubDate>Fri, 01 May 2026 18:04:00 +0800</pubDate><guid>https://read.shun.ink/posts/tweet-2049903821095354523/</guid><description>&lt;p>Andrej Karpathy 在一周前的 Sequoia Ascent 2026 做了场炉边谈话。今天他发了篇长推文总结其中的要点，以下是全文翻译。&lt;/p>
&lt;hr>
&lt;h3 id="主题一llm-远不止加速已有事物">主题一：LLM 远不止加速已有事物&lt;/h3>
&lt;p>我想强调的第一个主题是，LLM 的意义远不止加速已有事物的速度（比如编程）。三个新地平线的例子：&lt;/p>
&lt;p>&lt;strong>1. MenuGen&lt;/strong> — 一个完全可以被 LLM 吞掉的 App，不需要任何传统代码：输入一张图片，输出一张图片，LLM 原生就能完成这件事。&lt;/p>
&lt;p>&lt;strong>2. 安装 .md Skill，而不是安装 .sh 脚本&lt;/strong> — 为什么还要为安装软件写一个复杂的 Software 1.0 bash 脚本？如果你可以用文字把安装过程写出来，然后说&amp;quot;把这个给你的 LLM 看&amp;quot;，LLM 是一个高级的英语解释器，可以智能地针对你的环境进行安装，就地调试所有问题，等等。&lt;/p>
&lt;p>&lt;strong>3. LLM Knowledge Bases&lt;/strong> — 这是传统代码&lt;strong>根本无法实现&lt;/strong>的事情，因为它是对来自任意来源、任意格式（包括纯文本文章等）的非结构化数据（知识）进行计算。&lt;/p>
&lt;p>我强调这些是因为，在每一个范式转变中，显而易见的事情总是在加速或改进已有事物的范畴内。但在这里，我们看到的是要么突然不应该再存在（1、2）、要么从根本上以前不可能实现（3）的功能。&lt;/p>
&lt;h3 id="主题二llm-的锯齿形能力模式">主题二：LLM 的&amp;quot;锯齿形&amp;quot;能力模式&lt;/h3>
&lt;p>第二个（仍在进行中的）主题是尝试解释 LLM 中这种&amp;quot;锯齿形&amp;quot;的能力模式。为什么同一个系统能同时做到：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>连贯地重构一个 10 万行的代码库&lt;/strong>&lt;/li>
&lt;li>&lt;strong>告诉你走路去洗车店洗车&lt;/strong>&lt;/li>
&lt;/ol>
&lt;p>我之前写过这个现象的根源与领域的可验证性有关。在这里我进一步扩展为：这也与经济性有关——收入/TAM 决定了前沿实验室选择在 RL 训练期间把什么打包进训练数据分布中。&lt;/p>
&lt;p>你要么在数据分布之内（在 RL 电路的轨道上），飞速前进；要么在数据分布之外，像在丛林中用砍刀开路，相对而言步履维艰。&lt;/p>
&lt;p>我对自己这个解释仍不完全满意，但这是一个持续的挑战——如果你想实际利用 LLM 的力量同时避开其陷阱，就需要建立一个准确的 LLM 能力模型。&lt;/p>
&lt;h3 id="主题三agent-原生经济">主题三：Agent 原生经济&lt;/h3>
&lt;p>最后一个主题是 Agent 原生经济。包括：&lt;/p>
&lt;ul>
&lt;li>产品和服务分解为传感器、执行器和逻辑（分布在 1.0/2.0/3.0 计算范式中）&lt;/li>
&lt;li>如何让信息对 LLM 最大限度地可读&lt;/li>
&lt;li>关于快速兴起的 Agentic Engineering 及其技能集&lt;/li>
&lt;li>相关的招聘实践&lt;/li>
&lt;li>甚至可能包括纯神经网络计算处理绝大多数计算、传统 CPU 作为协处理器的暗示/梦想&lt;/li>
&lt;/ul>
&lt;hr>
&lt;p>&lt;em>原文链接: &lt;a href="https://x.com/karpathy/status/2049903821095354523">Andrej Karpathy on X&lt;/a> | 来源: X @karpathy | 2026-04-30&lt;/em>&lt;/p></description></item><item><title>Karpathy 最新访谈：Vibe Coding 只是开始，真正重要的是 Agentic Engineering</title><link>https://read.shun.ink/posts/tweet-2049617833370202182/</link><pubDate>Thu, 30 Apr 2026 06:32:26 +0800</pubDate><guid>https://read.shun.ink/posts/tweet-2049617833370202182/</guid><description>&lt;p>Andrej Karpathy 说，他已经记不清上次修改 AI 生成的代码是什么时候了。&lt;/p>
&lt;p>Karpathy 参与创建了 OpenAI，在 Tesla 领导过 Autopilot 视觉团队，去年一条推文发明了“凭感觉编程”（Vibe Coding）这个词，后来被 Collins 词典选为 2025 年度词汇。&lt;/p>
&lt;p>2026 年 4 月，Karpathy 在 Sequoia Capital 的 AI Ascent 现场接受合伙人 Stephanie Zhan 的访谈。这场 30 分钟的对话覆盖了他对编程范式剧变的亲身感受、Software 3.0 的实质、AI 为什么在某些地方极强而在另一些地方离谱地弱，以及“凭感觉编程”之后更严肃的下一步是什么。&lt;/p>
&lt;p>&lt;img alt="Karpathy 访谈封面" loading="lazy" src="https://read.shun.ink/img/tweet-2049617833370202182/cover.jpg">&lt;/p>
&lt;h3 id="要点速览">要点速览&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>2025 年 12 月是 Karpathy 个人的转折点：AI 输出从“有帮助但常要修补”变成“直接可用”，他进入完全凭感觉编程的状态。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Software 3.0 的关键不是“用自然语言写代码”，而是通过 prompt 和 context 操作 LLM 这个新的信息处理解释器。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>MenuGen 案例让 Karpathy 意识到，一些 AI 应用不是会被做得更快，而是会被模型原生能力直接吞掉。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>LLM 的能力高度不均匀：它可以重构 10 万行代码、找零日漏洞，却可能在“去 50 米外洗车该走路还是开车”这种常识题上犯错。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Vibe Coding 抬高所有人做软件的下限；Agentic Engineering 则是在使用 Agent 提速时，保住专业软件的质量、安全和责任门槛。&lt;/p></description></item></channel></rss>