<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Posts on Read</title><link>https://read.shun.ink/posts/</link><description>Recent content in Posts on Read</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Fri, 01 May 2026 18:04:00 +0800</lastBuildDate><atom:link href="https://read.shun.ink/posts/index.xml" rel="self" type="application/rss+xml"/><item><title>Karpathy 总结 Sequoia Ascent 2026 炉边谈话：LLM 远不止加速已有事物</title><link>https://read.shun.ink/posts/tweet-2049903821095354523/</link><pubDate>Fri, 01 May 2026 18:04:00 +0800</pubDate><guid>https://read.shun.ink/posts/tweet-2049903821095354523/</guid><description>&lt;p>Andrej Karpathy 在一周前的 Sequoia Ascent 2026 做了场炉边谈话。今天他发了篇长推文总结其中的要点，以下是全文翻译。&lt;/p>
&lt;hr>
&lt;h3 id="主题一llm-远不止加速已有事物">主题一：LLM 远不止加速已有事物&lt;/h3>
&lt;p>我想强调的第一个主题是，LLM 的意义远不止加速已有事物的速度（比如编程）。三个新地平线的例子：&lt;/p>
&lt;p>&lt;strong>1. MenuGen&lt;/strong> — 一个完全可以被 LLM 吞掉的 App，不需要任何传统代码：输入一张图片，输出一张图片，LLM 原生就能完成这件事。&lt;/p>
&lt;p>&lt;strong>2. 安装 .md Skill，而不是安装 .sh 脚本&lt;/strong> — 为什么还要为安装软件写一个复杂的 Software 1.0 bash 脚本？如果你可以用文字把安装过程写出来，然后说&amp;quot;把这个给你的 LLM 看&amp;quot;，LLM 是一个高级的英语解释器，可以智能地针对你的环境进行安装，就地调试所有问题，等等。&lt;/p>
&lt;p>&lt;strong>3. LLM Knowledge Bases&lt;/strong> — 这是传统代码&lt;strong>根本无法实现&lt;/strong>的事情，因为它是对来自任意来源、任意格式（包括纯文本文章等）的非结构化数据（知识）进行计算。&lt;/p>
&lt;p>我强调这些是因为，在每一个范式转变中，显而易见的事情总是在加速或改进已有事物的范畴内。但在这里，我们看到的是要么突然不应该再存在（1、2）、要么从根本上以前不可能实现（3）的功能。&lt;/p>
&lt;h3 id="主题二llm-的锯齿形能力模式">主题二：LLM 的&amp;quot;锯齿形&amp;quot;能力模式&lt;/h3>
&lt;p>第二个（仍在进行中的）主题是尝试解释 LLM 中这种&amp;quot;锯齿形&amp;quot;的能力模式。为什么同一个系统能同时做到：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>连贯地重构一个 10 万行的代码库&lt;/strong>&lt;/li>
&lt;li>&lt;strong>告诉你走路去洗车店洗车&lt;/strong>&lt;/li>
&lt;/ol>
&lt;p>我之前写过这个现象的根源与领域的可验证性有关。在这里我进一步扩展为：这也与经济性有关——收入/TAM 决定了前沿实验室选择在 RL 训练期间把什么打包进训练数据分布中。&lt;/p>
&lt;p>你要么在数据分布之内（在 RL 电路的轨道上），飞速前进；要么在数据分布之外，像在丛林中用砍刀开路，相对而言步履维艰。&lt;/p>
&lt;p>我对自己这个解释仍不完全满意，但这是一个持续的挑战——如果你想实际利用 LLM 的力量同时避开其陷阱，就需要建立一个准确的 LLM 能力模型。&lt;/p>
&lt;h3 id="主题三agent-原生经济">主题三：Agent 原生经济&lt;/h3>
&lt;p>最后一个主题是 Agent 原生经济。包括：&lt;/p>
&lt;ul>
&lt;li>产品和服务分解为传感器、执行器和逻辑（分布在 1.0/2.0/3.0 计算范式中）&lt;/li>
&lt;li>如何让信息对 LLM 最大限度地可读&lt;/li>
&lt;li>关于快速兴起的 Agentic Engineering 及其技能集&lt;/li>
&lt;li>相关的招聘实践&lt;/li>
&lt;li>甚至可能包括纯神经网络计算处理绝大多数计算、传统 CPU 作为协处理器的暗示/梦想&lt;/li>
&lt;/ul>
&lt;hr>
&lt;p>&lt;em>原文链接: &lt;a href="https://x.com/karpathy/status/2049903821095354523">Andrej Karpathy on X&lt;/a> | 来源: X @karpathy | 2026-04-30&lt;/em>&lt;/p></description></item><item><title>郭宇对话车畅：Claude Code时代，知识工作者的终结与AI的未来</title><link>https://read.shun.ink/posts/youtube-rwueq7n_3ya/</link><pubDate>Fri, 01 May 2026 17:48:00 +0800</pubDate><guid>https://read.shun.ink/posts/youtube-rwueq7n_3ya/</guid><description>&lt;p>郭宇与作家车畅在银座单向街书店的对谈。郭宇结合自己从支付宝到字节跳动的经历，提出了一个引人深思的判断：随着AI Agent与自动推理能力的发展，软件正在从&amp;quot;固定程序代码&amp;quot;走向&amp;quot;动态生成&amp;quot;，程序员乃至大多数知识工作者的角色，正在被重新定义。&lt;/p>
&lt;p>在他看来，这一轮变化的关键并不只是ChatGPT，而是从2023年后兴起的&amp;quot;Agent + 自动执行&amp;quot;模式——人类只需描述需求，AI即可自动完成从设计、编码到执行的全过程。&lt;/p>
&lt;p>&lt;img alt="郭宇对话车畅" loading="lazy" src="//img/youtube-rwueq7n_3yA/cover.jpg">&lt;/p>
&lt;video controls preload="metadata" style="width:100%;max-width:720px;border-radius:12px">
&lt;source src="https://read.shun.ink/videos/youtube-rwueq7n_3yA.mp4" type="video/mp4">
您的浏览器不支持视频播放。
&lt;/video>
&lt;h3 id="郭宇是谁">郭宇是谁&lt;/h3>
&lt;p>郭宇，2011年进入互联网行业，先在支付宝工作（曾主导支付宝年账单项目），2014年与朋友创业后被字节跳动收购，成为字节早期工程师之一（当时公司仅200多名工程师）。2020年因疫情滞留日本后辞职，至今在日本生活。字节跳动2015年在冲绳年会上决定做短视频推荐，由此诞生了火山小视频和抖音（2016年12月正式发布）。&lt;/p>
&lt;h3 id="为什么程序员最先被冲击">为什么程序员最先被冲击&lt;/h3>
&lt;p>短期来看，AI可以让你变得更强，一个人能抵一万个人的工作；长期来看，你会失业，最后不再需要你。&lt;/p>
&lt;p>郭宇分享了自己从去年10月才开始重新回归写代码的经历。ChatGPT面世两年后，很多人质疑AI是不是泡沫，因为用户增长趋于稳定。但从2024年10月开始，情况发生了根本变化——当Claude Code推出Skill（技能）模式后，AI Agent真正开始自动执行完整的工作流。&lt;/p>
&lt;p>&lt;strong>关键转折&lt;/strong>：Claude Code在编码这件事情上已经基本做到了大家不再需要看AI写的代码，但它就是能正常工作。这意味着你不再需要监督它写的代码。&lt;/p>
&lt;h3 id="vibe-coding写代码的人在跳舞">Vibe Coding：写代码的人在跳舞&lt;/h3>
&lt;p>Vibe Coding（氛围编程）指的是：AI在写代码，你在旁边跳舞、嗨，你只需要思考你到底要做什么，然后通过沟通的方式让AI Agent来自动执行大部分工作。&lt;/p>
&lt;p>郭宇说这背后的本质是：Opus 4.5跨过了一个非常重要的门槛——你不再需要监督它写的代码，它也可以正常工作。&lt;/p>
&lt;h3 id="skill模式把工作描述成文档">Skill模式：把工作描述成文档&lt;/h3>
&lt;p>你只需要把你每天的工作描述成一个Markdown文件——早上干什么、查完邮件干什么、和谁开会、决定做什么。Claude Code会读取这个文档，然后自动执行。&lt;/p>
&lt;p>传统的软件开发流程：想清楚做什么→和产品经理沟通→固定需求→写技术文档→写代码→发布。但从2024年10月开始，一切都变了——软件不再需要写死代码，而是由大语言模型根据需求自动生成。&lt;/p>
&lt;h3 id="最终形态动态流动的token">最终形态：动态流动的Token&lt;/h3>
&lt;p>郭宇将软件分为两种类型：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>写死的软件&lt;/strong>：通过传统工作流构建的固定代码&lt;/li>
&lt;li>&lt;strong>最终的软件&lt;/strong>：通过不断推理，把人类的思考变成无数可能性的动态系统&lt;/li>
&lt;/ol>
&lt;p>软件不再是固定的代码，而是动态流动的Token。这些Token消耗推理算力，需要GPU来生成。推理根据用户的需求和Skill文件来现场写代码，完成任何工作——无论是查银座附近的停车场，还是给小孩的班主任做生日祝福网页。&lt;/p>
&lt;h3 id="menugen的启示这个app不应该存在">MenuGen的启示：这个App不应该存在&lt;/h3>
&lt;p>郭宇举了一个生动的例子：他做了一个叫MenuGen的App，拍菜单照片→OCR识别菜名→生成菜品图片→重新渲染菜单。这个App用了多层中间步骤。&lt;/p>
&lt;p>而Software 3.0的版本：直接把菜单照片交给Gemini，说&amp;quot;把这些菜品图叠加回菜单上&amp;quot;，模型直接返回一张含菜品图片的新菜单。&lt;/p>
&lt;p>&lt;strong>结论&lt;/strong>：很多AI应用以为自己在做&amp;quot;更快的软件&amp;quot;，但模型本身的输入输出可能直接覆盖这个任务，中间App的结构就失去了必要性。&lt;/p>
&lt;h3 id="saas公司的末日">SaaS公司的末日&lt;/h3>
&lt;p>郭宇指出，每次Claude发布新功能，美股就总有一家SaaS公司暴跌20%以上。因为用户发现可以用Claude Code实时写一个完全针对自己需求的程序，用自己的文件、自己的账号，存在自己的云盘——为什么还需要使用别人写的软件？&lt;/p>
&lt;p>软件可以变得高度个性化，工作可以变得高度自动化。&lt;/p>
&lt;h3 id="中国vs美国的代差">中国vs美国的代差&lt;/h3>
&lt;p>中国和美国在AI编码模型上存在6-12个月的代差。这看似很短但在当前极其关键。字节跳动、阿里、腾讯都在摸索Agent软件，但大部分公司先做了消费级产品（豆包、即梦等），大量GPU用于多模态推理，而不是编码模型的训练。&lt;/p>
&lt;p>美国公司的Claude Opus模型编码能力极强。中国公司通过蒸馏Claude模型来追赶，本质上存在代际差异。&lt;/p>
&lt;h3 id="律师法务出版业都在被改变">律师、法务、出版业都在被改变&lt;/h3>
&lt;p>2025年2月，Claude推出的Legal Plugin引发了2850亿美元的股票抛售。与法律相关的公司股价大幅下跌。彭博社报道了这一事件。&lt;/p>
&lt;p>对于出版行业，郭宇认为所有的知识工作者都将受到影响。未来的记者不再需要依赖WordPress这样的平台，唯一依赖的是推理的需求。&lt;/p>
&lt;h3 id="one-man-ai公司">One Man AI公司&lt;/h3>
&lt;p>郭宇正在做一个实验项目——one man AI公司。每天晚上睡觉前让它在他自己的5090显卡上跑1000个循环（6个多小时），让它设计一家东京的装置艺术公司，包括完整的财务计划、网站、3D产品，并自动发送邮件给东京的画廊和公共空间。&lt;/p>
&lt;p>&lt;strong>意义&lt;/strong>：如果一个人都能做这件事，意味着无数科技公司都在做自动化的公司。你只要提供想法，AI可以把1000个可能性全部实现，并自动执行。&lt;/p>
&lt;h3 id="ai时代年轻人该学什么">AI时代年轻人该学什么&lt;/h3>
&lt;p>对年轻人的建议：&lt;strong>学怎么使用Claude Code这类编码Agent——但这只对三到六个月有效。&lt;/strong> 过了这段时间，全自动化了，连这个也不需要学了。&lt;/p>
&lt;p>因为当AI可以自动发散想法、自动执行、自动失败或盈利时，作为创业者和知识工作者，任何人只要提出想法就可以拥有自己的公司。但连提出想法这件事本身，也在被AI自动发散。&lt;/p>
&lt;h3 id="openclaw龙虾与claude-code的区别">OpenClaw（龙虾）与Claude Code的区别&lt;/h3>
&lt;p>OpenClaw（龙虾）不是一个语言模型，而是一个编排软件。它像一个常驻在电脑中的Agent管理器，可以接入各种语言模型（最佳的是Claude Opus 4.6），24×7自动运行。&lt;/p>
&lt;p>如果它能在本地运行，就一定能在云端运行。云端的服务器性能更强、推演速度更快、永不间断、有更多信息和记忆。&lt;/p>
&lt;h3 id="关于失业与社会结构">关于失业与社会结构&lt;/h3>
&lt;p>郭宇指出了AI时代的一个核心矛盾：&lt;/p></description></item><item><title>测试文章 — 内容桥接站已上线</title><link>https://read.shun.ink/posts/hello-bridge/</link><pubDate>Fri, 01 May 2026 14:40:00 +0800</pubDate><guid>https://read.shun.ink/posts/hello-bridge/</guid><description>&lt;p>这是第一篇测试文章，标志着内容桥接站正式上线。&lt;/p>
&lt;h2 id="功能">功能&lt;/h2>
&lt;ul>
&lt;li>🐦 推文存档与翻译&lt;/li>
&lt;li>📹 YouTube 视频图文 + 视频下载&lt;/li>
&lt;li>📄 长文章翻译与排版优化&lt;/li>
&lt;li>🏷 自动标签聚合&lt;/li>
&lt;li>📱 微信浏览器适配&lt;/li>
&lt;/ul>
&lt;hr>
&lt;p>&lt;em>原文链接: 无 | 来源: 系统 | 2026-05-01&lt;/em>&lt;/p></description></item><item><title>Karpathy 最新访谈：Vibe Coding 只是开始，真正重要的是 Agentic Engineering</title><link>https://read.shun.ink/posts/tweet-2049617833370202182/</link><pubDate>Thu, 30 Apr 2026 06:32:26 +0800</pubDate><guid>https://read.shun.ink/posts/tweet-2049617833370202182/</guid><description>&lt;p>Andrej Karpathy 说，他已经记不清上次修改 AI 生成的代码是什么时候了。&lt;/p>
&lt;p>Karpathy 参与创建了 OpenAI，在 Tesla 领导过 Autopilot 视觉团队，去年一条推文发明了“凭感觉编程”（Vibe Coding）这个词，后来被 Collins 词典选为 2025 年度词汇。&lt;/p>
&lt;p>2026 年 4 月，Karpathy 在 Sequoia Capital 的 AI Ascent 现场接受合伙人 Stephanie Zhan 的访谈。这场 30 分钟的对话覆盖了他对编程范式剧变的亲身感受、Software 3.0 的实质、AI 为什么在某些地方极强而在另一些地方离谱地弱，以及“凭感觉编程”之后更严肃的下一步是什么。&lt;/p>
&lt;p>&lt;img alt="Karpathy 访谈封面" loading="lazy" src="https://read.shun.ink/img/tweet-2049617833370202182/cover.jpg">&lt;/p>
&lt;h3 id="要点速览">要点速览&lt;/h3>
&lt;ul>
&lt;li>
&lt;p>2025 年 12 月是 Karpathy 个人的转折点：AI 输出从“有帮助但常要修补”变成“直接可用”，他进入完全凭感觉编程的状态。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Software 3.0 的关键不是“用自然语言写代码”，而是通过 prompt 和 context 操作 LLM 这个新的信息处理解释器。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>MenuGen 案例让 Karpathy 意识到，一些 AI 应用不是会被做得更快，而是会被模型原生能力直接吞掉。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>LLM 的能力高度不均匀：它可以重构 10 万行代码、找零日漏洞，却可能在“去 50 米外洗车该走路还是开车”这种常识题上犯错。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Vibe Coding 抬高所有人做软件的下限；Agentic Engineering 则是在使用 Agent 提速时，保住专业软件的质量、安全和责任门槛。&lt;/p></description></item></channel></rss>