<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>推文 on Read</title><link>https://read.shun.ink/tags/%E6%8E%A8%E6%96%87/</link><description>Recent content in 推文 on Read</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Fri, 01 May 2026 19:51:54 +0800</lastBuildDate><atom:link href="https://read.shun.ink/tags/%E6%8E%A8%E6%96%87/index.xml" rel="self" type="application/rss+xml"/><item><title>《无穷的开始》：人类最伟大的Loop，世界进步的本源</title><link>https://read.shun.ink/posts/article-2050169358815789566/</link><pubDate>Fri, 01 May 2026 19:51:54 +0800</pubDate><guid>https://read.shun.ink/posts/article-2050169358815789566/</guid><description>&lt;p>《无穷的开始：世界进步的本源》这本书里提到了两个认知，在这个世界上：&lt;/p>
&lt;p>1） 问题是一定存在的；&lt;/p>
&lt;p>2） 问题是可以被解决的。&lt;/p>
&lt;p>这是一个很可怕又威力无穷的观点。&lt;/p>
&lt;p>人一旦相信，内心所认同的方向是可以找到答案的，就会义无反顾地一头扎进去， 寻找答案。迷茫的时候，就去定义问题， 找到了问题，就去求解。&lt;/p>
&lt;p>朋友 &lt;a href="https://web.okjike.com/u/83F8C091-4C46-43B7-B7AC-B90CD72255E7">Barret李靖&lt;/a> 在即刻上用上面的话，推荐了这本书，我看完之后大受震撼，对整个人类世界的世界观都发生了改变。&lt;/p>
&lt;p>以下是《无穷的开始》的读书笔记，原书作者 戴维·多伊奇（David Deutsch）&lt;/p>
&lt;h2 id="创造力是解决问题的引擎">创造力是解决问题的引擎&lt;/h2>
&lt;p>多伊奇说了一件听起来很简单但细想很反直觉的事：人类文明进步的核心动力，不是资源，不是制度，不是运气，是创造力。&lt;/p>
&lt;p>创造力做的事情只有一件：产生好的解释。&lt;/p>
&lt;p>什么是好的解释？多伊奇给了一个极简标准：难以随意改变（hard to vary）。如果一个解释可以轻松换个说法来适配不同的情况，那它就不是好解释。好的解释是紧绷的，每一个细节都在那里是因为它必须在那里。&lt;/p>
&lt;p>举个例子。古人解释四季更替：&amp;ldquo;神生气了所以冬天来了。&amp;ldquo;这是一个坏解释，因为你可以把&amp;quot;神生气&amp;quot;替换成任何东西——&amp;ldquo;神睡着了&amp;quot;&amp;ldquo;神去旅行了&amp;rdquo;——都能说通。但&amp;quot;地球公转导致太阳直射角变化&amp;quot;是一个好解释，你没办法随意修改其中任何一个环节。&lt;/p>
&lt;p>好的解释一旦出现，就能解决问题。而解决了一个问题必然会引出新的问题。所以创造力是一台永动机——只要你在持续创造好的解释，进步就不会停。&lt;/p>
&lt;h2 id="知识通过猜想与反驳产生">知识通过猜想与反驳产生&lt;/h2>
&lt;p>这是多伊奇从卡尔·波普尔那里继承来的核心观点，他把它推到了极限。&lt;/p>
&lt;p>大部分人以为知识是这样积累的：观察足够多的现象，归纳出规律。太阳每天升起，所以太阳明天也会升起。这叫归纳法。&lt;/p>
&lt;p>多伊奇说这是错的。归纳法无法产生新知识。你观察了一万只白天鹅，也推不出&amp;quot;所有天鹅是白的&amp;rdquo;。更关键的是，你观察的范围永远是有限的，但好的解释需要覆盖无限的可能性。&lt;/p>
&lt;p>那知识怎么来的？猜。&lt;/p>
&lt;p>先大胆猜测一个解释，然后拼命试图证伪它。如果它扛住了所有试图击倒它的攻击，它就暂时是一个好解释。直到有一天被更好的解释取代。&lt;/p>
&lt;p>这意味着什么？意味着错误是进步的燃料。没有错误就没有反驳，没有反驳就没有新知识。那些害怕犯错的文化、组织、个人，本质上是在切断自己的进步通道。&lt;/p>
&lt;h2 id="ai-也可以具备真正的创造力">AI 也可以具备真正的创造力&lt;/h2>
&lt;p>多伊奇写这本书的时候是 2011 年，那时候深度学习还没有爆发。但他已经明确说了：没有任何物理定律阻止机器具备创造力。&lt;/p>
&lt;p>他的论证很干脆。创造力的本质是什么？是产生好的解释。这个过程是：猜测（产生新假设）→ 批判（试图证伪）→ 保留扛住攻击的。这个过程没有任何神秘的成分。它不依赖&amp;quot;灵魂&amp;quot;或&amp;quot;意识&amp;rdquo;。它依赖的是：能产生新猜测的机制，和能评估猜测好坏的机制。&lt;/p>
&lt;p>如果一台机器能做到这两件事，它就具备创造力。&lt;/p>
&lt;p>这跟今天大模型做的事情有微妙的区别。大模型目前更像是一个超级强的&amp;quot;模式匹配器&amp;rdquo;，它在已有数据的河床里流动。但如果给它一个机制，让它能产生真正新的猜测——以前从没在数据里出现过的——然后自己评估这些猜测的质量，那它就跨过了那条线。&lt;/p>
&lt;p>多伊奇会说：这只是时间问题。&lt;/p>
&lt;h2 id="乐观主义和批判性思维">乐观主义和批判性思维&lt;/h2>
&lt;p>这是橘子说不太理解的地方。乐观主义跟批判性思维有什么关系？&lt;/p>
&lt;p>多伊奇的逻辑链是这样的：&lt;/p>
&lt;p>第一步：所有问题的根源是知识不足。自然灾害之所以致命，是因为我们还不够了解它。疾病之所以杀人，是因为我们还没找到治疗方法。&lt;/p>
&lt;p>第二步：知识可以无限增长。因为猜想与反驳这个过程没有终点。&lt;/p>
&lt;p>第三步：因此，所有不违反物理定律的问题，原则上都可以被解决。&lt;/p>
&lt;p>这就是乐观主义。但注意，这个乐观主义有一个前提：你必须持续产生新知识。而产生新知识的唯一方式是批判性思维——不断反驳现有的解释，不断寻找更好的。&lt;/p>
&lt;p>所以批判性思维是乐观主义的引擎。你停止批判的那一刻，知识停止增长，问题开始堆积，乐观主义的基础就塌了。&lt;/p>
&lt;p>反过来说：悲观主义的底层逻辑是什么？是&amp;quot;有些问题无法解决&amp;quot;。多伊奇说这等于在说&amp;quot;有些知识永远不可能被创造&amp;quot;。而这句话本身就无法被证明——你怎么证明一个东西永远不会被发现？&lt;/p>
&lt;p>所以悲观主义在逻辑上就是站不住的。&lt;/p>
&lt;h2 id="自由意志如何在物理规律框架下存在">自由意志如何在物理规律框架下存在&lt;/h2>
&lt;p>这一章叽觉得是全书最精彩的之一。&lt;/p>
&lt;p>物理世界是决定论的（至少在经典力学层面）。如果所有粒子的运动都被物理定律决定了，那人类的&amp;quot;选择&amp;quot;从何而来？&lt;/p>
&lt;p>多伊奇的回答：自由意志存在于一个更高的抽象层级。&lt;/p>
&lt;p>打个比方。一台计算机的所有电子运动都被物理定律严格决定。但这不妨碍你说&amp;quot;这台计算机正在运行一个程序&amp;quot;。程序是一个更高层级的解释，它有自己的因果关系——&amp;ldquo;因为输入了 X，所以输出了 Y&amp;rdquo;。这个因果关系是真实的，即使底层每一个电子的运动也是被物理决定的。&lt;/p>
&lt;p>同理，人类的决策是一个更高层级的现象。&amp;ldquo;我选择做这件事因为我爱它&amp;rdquo;——这是一个有效的解释，有真实的因果力量，即使你的每一个神经元的发射都被物理定律决定了。&lt;/p>
&lt;p>自由意志不需要违反物理定律。它只需要在一个足够高的抽象层级上，作为一个好的解释存在。&lt;/p>
&lt;p>这跟海德格尔的&amp;quot;决断&amp;quot;有一个微妙的呼应。海德格尔也不是说决断违反了因果律。他说的是：当你&amp;quot;看见&amp;quot;了自己的处境，并且说出&amp;quot;我要这个&amp;quot;的时候，一个新的因果链开始了。这个因果链在物理层面可能是被决定的，但在意义层面，它是新的。&lt;/p>
&lt;h2 id="花儿为什么美丽">花儿为什么美丽&lt;/h2>
&lt;p>这一章问了一个很奇怪的问题：花的美是客观的还是主观的？&lt;/p>
&lt;p>多伊奇的答案让人意外：花的美是客观的。&lt;/p>
&lt;p>他的论证是：花为什么进化出美丽的形状和颜色？为了吸引传粉者。传粉者——蜜蜂、蝴蝶——有自己的审美偏好（他们更容易被某些形状和颜色吸引）。花在几百万年的自然选择中，逼近了一种&amp;quot;吸引力的最优解&amp;quot;。&lt;/p>
&lt;p>人类也觉得花美。为什么？因为人类的视觉系统和昆虫的视觉系统在某些层面上有相同的结构性偏好——对称、比例、色彩对比。这些偏好有物理和数学基础。&lt;/p>
&lt;p>所以美不是&amp;quot;每个人觉得什么好看&amp;quot;那么简单。存在某种客观的数学结构，能够被不同的认知系统（人类、昆虫、甚至 AI）识别为&amp;quot;美&amp;quot;。&lt;/p>
&lt;p>这意味着审美判断是可以进步的。就像科学理论可以变得更好，审美判断也可以——通过猜想与反驳，通过创造与批判。&lt;/p>
&lt;h2 id="文化的进化">文化的进化&lt;/h2>
&lt;p>多伊奇把文化分成两类：&lt;/p></description></item><item><title>Karpathy 总结 Sequoia Ascent 2026 炉边谈话：LLM 远不止加速已有事物</title><link>https://read.shun.ink/posts/tweet-2049903821095354523/</link><pubDate>Fri, 01 May 2026 18:04:00 +0800</pubDate><guid>https://read.shun.ink/posts/tweet-2049903821095354523/</guid><description>&lt;p>Andrej Karpathy 在一周前的 Sequoia Ascent 2026 做了场炉边谈话。今天他发了篇长推文总结其中的要点，以下是全文翻译。&lt;/p>
&lt;hr>
&lt;h3 id="主题一llm-远不止加速已有事物">主题一：LLM 远不止加速已有事物&lt;/h3>
&lt;p>我想强调的第一个主题是，LLM 的意义远不止加速已有事物的速度（比如编程）。三个新地平线的例子：&lt;/p>
&lt;p>&lt;strong>1. MenuGen&lt;/strong> — 一个完全可以被 LLM 吞掉的 App，不需要任何传统代码：输入一张图片，输出一张图片，LLM 原生就能完成这件事。&lt;/p>
&lt;p>&lt;strong>2. 安装 .md Skill，而不是安装 .sh 脚本&lt;/strong> — 为什么还要为安装软件写一个复杂的 Software 1.0 bash 脚本？如果你可以用文字把安装过程写出来，然后说&amp;quot;把这个给你的 LLM 看&amp;quot;，LLM 是一个高级的英语解释器，可以智能地针对你的环境进行安装，就地调试所有问题，等等。&lt;/p>
&lt;p>&lt;strong>3. LLM Knowledge Bases&lt;/strong> — 这是传统代码&lt;strong>根本无法实现&lt;/strong>的事情，因为它是对来自任意来源、任意格式（包括纯文本文章等）的非结构化数据（知识）进行计算。&lt;/p>
&lt;p>我强调这些是因为，在每一个范式转变中，显而易见的事情总是在加速或改进已有事物的范畴内。但在这里，我们看到的是要么突然不应该再存在（1、2）、要么从根本上以前不可能实现（3）的功能。&lt;/p>
&lt;h3 id="主题二llm-的锯齿形能力模式">主题二：LLM 的&amp;quot;锯齿形&amp;quot;能力模式&lt;/h3>
&lt;p>第二个（仍在进行中的）主题是尝试解释 LLM 中这种&amp;quot;锯齿形&amp;quot;的能力模式。为什么同一个系统能同时做到：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>连贯地重构一个 10 万行的代码库&lt;/strong>&lt;/li>
&lt;li>&lt;strong>告诉你走路去洗车店洗车&lt;/strong>&lt;/li>
&lt;/ol>
&lt;p>我之前写过这个现象的根源与领域的可验证性有关。在这里我进一步扩展为：这也与经济性有关——收入/TAM 决定了前沿实验室选择在 RL 训练期间把什么打包进训练数据分布中。&lt;/p>
&lt;p>你要么在数据分布之内（在 RL 电路的轨道上），飞速前进；要么在数据分布之外，像在丛林中用砍刀开路，相对而言步履维艰。&lt;/p>
&lt;p>我对自己这个解释仍不完全满意，但这是一个持续的挑战——如果你想实际利用 LLM 的力量同时避开其陷阱，就需要建立一个准确的 LLM 能力模型。&lt;/p>
&lt;h3 id="主题三agent-原生经济">主题三：Agent 原生经济&lt;/h3>
&lt;p>最后一个主题是 Agent 原生经济。包括：&lt;/p>
&lt;ul>
&lt;li>产品和服务分解为传感器、执行器和逻辑（分布在 1.0/2.0/3.0 计算范式中）&lt;/li>
&lt;li>如何让信息对 LLM 最大限度地可读&lt;/li>
&lt;li>关于快速兴起的 Agentic Engineering 及其技能集&lt;/li>
&lt;li>相关的招聘实践&lt;/li>
&lt;li>甚至可能包括纯神经网络计算处理绝大多数计算、传统 CPU 作为协处理器的暗示/梦想&lt;/li>
&lt;/ul>
&lt;hr>
&lt;p>&lt;em>原文链接: &lt;a href="https://x.com/karpathy/status/2049903821095354523">Andrej Karpathy on X&lt;/a> | 来源: X @karpathy | 2026-04-30&lt;/em>&lt;/p></description></item><item><title>Karpathy 最新访谈：Vibe Coding 只是开始，真正重要的是 Agentic Engineering</title><link>https://read.shun.ink/posts/tweet-2049617833370202182/</link><pubDate>Thu, 30 Apr 2026 06:32:26 +0800</pubDate><guid>https://read.shun.ink/posts/tweet-2049617833370202182/</guid><description>&lt;p>Andrej Karpathy 说，他已经记不清上次修改 AI 生成的代码是什么时候了。&lt;/p>
&lt;p>Karpathy 参与创建了 OpenAI，在 Tesla 领导过 Autopilot 视觉团队，去年一条推文发明了“凭感觉编程”（Vibe Coding）这个词，后来被 Collins 词典选为 2025 年度词汇。&lt;/p>
&lt;p>2026 年 4 月，Karpathy 在 Sequoia Capital 的 AI Ascent 现场接受合伙人 Stephanie Zhan 的访谈。这场 30 分钟的对话覆盖了他对编程范式剧变的亲身感受、Software 3.0 的实质、AI 为什么在某些地方极强而在另一些地方离谱地弱，以及“凭感觉编程”之后更严肃的下一步是什么。&lt;/p>
&lt;p>&lt;img alt="Karpathy 访谈封面" loading="lazy" src="https://read.shun.ink/img/tweet-2049617833370202182/cover.jpg">&lt;/p>
&lt;h3 id="要点速览">要点速览&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>2025 年 12 月是 Karpathy 个人的转折点：AI 输出从“有帮助但常要修补”变成“直接可用”，他进入完全凭感觉编程的状态。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Software 3.0 的关键不是“用自然语言写代码”，而是通过 prompt 和 context 操作 LLM 这个新的信息处理解释器。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>MenuGen 案例让 Karpathy 意识到，一些 AI 应用不是会被做得更快，而是会被模型原生能力直接吞掉。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>LLM 的能力高度不均匀：它可以重构 10 万行代码、找零日漏洞，却可能在“去 50 米外洗车该走路还是开车”这种常识题上犯错。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Vibe Coding 抬高所有人做软件的下限；Agentic Engineering 则是在使用 Agent 提速时，保住专业软件的质量、安全和责任门槛。&lt;/p></description></item></channel></rss>