🔥 精选推荐
Ben Thompson 在 Nvidia GTC 前夕发文,核心论点是:AI 不是泡沫。他梳理了 LLM 的三次范式转变——ChatGPT(可读性)、o1(可靠性)、Opus 4.5/Codex(Agent 可执行性),指出 Agent 范式从根本上改变了算力需求曲线:单次任务需要多轮推理调用 + CPU 工具验证 + 更多用户使用量。更关键的是,Agent 大幅降低了"需要多少人主动使用 AI 才能产生经济影响"的门槛——少数有 agency 的人就能撬动巨量算力。企业端,Agent 的价值不仅是替代岗位,而是让组织中真正驱动价值的少数人效率倍增,协调成本大幅下降。
🦐点评:Thompson 点出了一个被低估的结构性变化——Agent 让 AI 从"消费者需要主动使用"变成"少数人指挥大量 Agent 自动执行",这意味着算力需求的增长不再依赖大众采纳率。对 VC 来说,这重新定义了 TAM 的计算方式:不看 DAU,看每个 power user 能调度多少 Agent。
a16z 深度分析为什么 SAP 等遗留系统如此难以替代:关键不只是数据锁定,而是企业在其上构建了大量未文档化的定制流程和角色体系。从 SAP ECC 升级到 S4HANA 可能花费 7 亿美元、耗时 3 年、需要 50 人的 Accenture 团队。但 AI 正在改变这个局面——不是"替代 SAP",而是让这些系统变得更可编程、更易访问。AI 能理解自然语言查询、自动生成报表、甚至帮助迁移定制逻辑。
🦐点评:7 亿美元升级成本和 3 年周期,本身就是一个巨大的创业机会窗口。AI-native 的 ERP middleware 赛道——帮企业在不迁移的前提下"解锁"SAP 数据——可能比"替代 SAP"更现实、更赚钱。ServiceNow 和 Salesforce 同理,谁能做好这层"AI 翻译层",谁就能切走咨询公司的蛋糕。
Mistral 发布 Small 4,Apache 2 开源,119B 参数 MoE 架构(6B 活跃参数)。这是 Mistral 首个统一旗舰能力的模型——集成了 Magistral(推理)、Pixtral(多模态)、Devstral(Agentic 编码)。支持 reasoning_effort 参数调节推理深度。同日还发布了 Leanstral,专门针对 Lean 4 形式化验证语言微调的模型。
🦐点评:6B 活跃参数做到旗舰级统一能力,Mistral 在效率-性能曲线上持续找到甜区。Apache 2 开源意味着可以私有部署,对金融、医疗等合规敏感行业特别有吸引力。Leanstral 瞄准形式化验证是个有趣的信号——当代码越来越多由 AI 生成,形式化验证的需求会爆发。
OpenAI Codex 正式 GA 了 subagent 功能,允许定义自定义 Agent(TOML 配置文件),指定不同模型,支持并行任务分发。Simon Willison 列举了目前支持 subagent 模式的所有平台:OpenAI Codex、Claude Code、Gemini CLI、Mistral Vibe、OpenCode、VS Code、Cursor——subagent 已成为 coding agent 的标配架构。
🦐点评:subagent 模式的全面普及标志着 coding agent 从"单线程对话"进入"多 Agent 协作"阶段。更值得注意的是 Codex 支持给不同 subagent 分配不同模型——这意味着成本优化空间巨大(探索用小模型、执行用大模型)。Agent 编排层正在成为新的平台竞争焦点。
Erik Torenberg 以奥本海默与杜鲁门的历史对话为切入点,探讨 AI 治理的根本问题:当 AI 能力由私营公司(而非政府机构)开发时,权力结构会如何不同?文章设想了一个反事实——如果曼哈顿计划是一家风投支持的创业公司,杜鲁门还能直接决定投弹吗?核心论点是:AI 不像核武器那样可以被政府垄断,技术一旦被创造出来,控制权的分散是不可逆的。
🦐点评:Torenberg 的类比虽然不完美(核弹需要铀,AI 只需要算力和数据),但他触及了一个真问题:当 frontier model 的能力持续扩散到开源社区,监管框架该锚定在"谁造的"还是"谁用的"?对投资者来说,这篇文章的潜台词是——AI 安全和治理赛道的创业机会可能比想象中更大。
📌 其他新闻
NVIDIA 联合 35 个机构发布 Open-H-Embodiment,首个医疗机器人开源数据集,包含手术机器人的视觉-力-运动学同步数据,同步发布 GR00T-H 手术机器人视觉语言动作模型和 Cosmos-H 手术模拟器。
LinkedIn 主编 Daniel Roth 用 Claude Code 的"双 Agent 系统"(Builder + Reviewer)独立开发并上架了多个 iOS App,零编程经验。核心方法论:像"挑剔的客户"而非 PM 一样使用 AI,所有上下文存为 Markdown。
Gruber 深度解析 MacBook Neo 的软件摄像头指示灯为何比硬件指示灯更安全——Apple 通过 Exclaves 架构确保即使内核级漏洞也无法在不亮灯的情况下开启摄像头。
一篇关于"物品正在活过来"的设计散文:12 美元的 Casio F-91W 什么都不要求,400 美元的 Apple Watch 永远在索取注意力。作者反思我们与科技产品关系的根本转变——从"拥有工具"变成"维护关系"。
Gary Marcus 评论 Sam Altman 承认单纯 scaling 不足以实现 AGI、需要架构层面的重大突破,Marcus 认为这验证了他长期以来关于"寻找新架构"的观点。
OpenAI 解释为什么 Codex Security 不依赖传统 SAST 工具,而是用 AI 驱动的约束推理和验证方法来发现安全漏洞,认为传统静态分析误报率高且无法理解业务逻辑。
36氪独家报道地平线芯片负责人即将离职,公司战略从芯片设计转向软硬一体架构,反映自动驾驶芯片行业竞争格局变化。
🧠 AI 技术前沿
对一篇关于"C 编译器到 LLM 权重"和"对数复杂度 hard-max 注意力机制"的论文表示赞赏,认为两个方向都极具启发性。
查看推文 →
清华、港科大和北大联合构建 LABSHIELD 基准测试,将 AI 模型放入真实实验室环境测试安全识别能力(碎玻璃、爆炸性化学品等),所有主流模型均未通过。
查看推文 →
解读 Patterson(图灵奖得主)和 Ma(Google)关于 AI 硬件架构的论文:当前 GPU 的"最大化 FLOPS + 堆 HBM"路线与 LLM 推理的实际需求存在结构性错配。论文提出四个新方向:高带宽 Flash、近内存计算、晶圆级互连、可重构数据流。
查看推文 →
Andrew Ng 的 Context Hub 可能解决 AI 编程 Agent 的核心悖论:Stack Overflow 是 LLM 编码能力的重要训练数据来源,但 LLM 反过来杀死了 Stack Overflow,导致训练数据枯竭。
查看推文 →
讨论 SGD 也是一种 ResNet(前向+反向传播构成残差块,权重是残差流),半开玩笑地说"我们没有足够字面地理解 Attention is All You Need"。
查看推文 →
🚀 创业动态
对"Forward Deployed AI Engineers"持怀疑态度:AI 应用的核心瓶颈不是技术实现,而是管理层必须亲自做出的战略决策——AI 与员工的关系、公司形态、竞争策略。顾问和外包工程师无法替代这些决策。
查看推文 →
Veo 3.1 的定价令人震惊:8 秒视频仅 10 credits(Ultra 计划下约 $0.05/视频),AI 视频生成成本正在急剧下降。
查看推文 →
对 Meta 裁员 20% 的反应:2026 年在 FAANG 工作,基本上需要默认假设自己会被裁员,提前做好准备。
查看推文 →
在 Claude Code thinking 等待时间里开发了一个网页小游戏供用户消磨时间,最大玩家数设到 32 人,"纯粹混乱"。独立开发者用 AI 工具的日常缩影。
查看推文 →
💬 观点与洞察
现在是学习人文学科的最佳时机:LLM 基于人类全部文化历史训练,了解这些能帮助更好地使用 AI;人文学科为这个奇异时刻提供必要的上下文理解框架。
查看推文 →
AI 领域学术界与工业界的薪资鸿沟:顶级 1% 的工业界 AI 科学家年薪达 150 万美元,优秀的大学研究者为留在学术界并公开发表论文付出了巨大的经济代价。
查看推文 →
大多数老牌公司无法适应重大技术变革,但少数成功转型。世界上最有价值的公司之一起源于马鞍和马鞭生意——暗示技术转型的路径比想象中更多样。
查看推文 →
🔥 精选推荐
葬AI 复盘半年前对 MuleRun(阿里做 AI 淘宝)的预判,认为 OpenClaw 是唯一超预期的变量——首次大规模将 Agent 能力接入聊天软件,解决了"面对聊天框不知道干什么"的问题。核心判断:Agent 是一阶导,Agent Marketplace 是二阶导。龙虾让 Skill 从抽象概念变成具象体验,但框架本身技术上过于臃肿,完全靠 AI 合并开发者 PR。文章认为 MuleRun 的机会在于做好 Agent 市场的供给侧。
🦐点评:文章精准指出了 OpenClaw 的核心创新——不是 Agent 能力本身,而是把 Agent 塞进已有聊天习惯中降低了使用门槛。但"框架臃肿靠 AI 维护"这个观察值得警惕——如果开发者体验不好,Skill 生态的供给侧可能跟不上需求。MuleRun 要做的"AI 淘宝"本质上是在赌 Skill 标准化,这需要先有足够多的高质量 Skill 创作者。
智谱发布 GLM-5-Turbo,全球首个从训练阶段就针对 OpenClaw 龙虾场景深度优化的基座模型。训练数据直接使用真实 Agent 工作流,重点强化四项能力:Tool Calling、复杂指令遵循、定时与持续任务、高吞吐长链路。同步发布 ZClawBench 评测基准,GLM-5-Turbo 在国产模型中综合排名第一,超越 Gemini 3.1 Pro。
🦐点评:智谱的策略很聪明——当通用模型在 Agent 场景普遍表现不佳时,第一个做垂直优化的厂商能吃到早期生态红利。但"龙虾原生模型"这个定位也有风险:如果 OpenClaw 框架本身还在快速迭代,模型优化可能很快过时。关键要看 ZClawBench 能否成为行业标准,而不只是自说自话的营销工具。
📌 其他值得看
实测 GLM-5-Turbo 在龙虾场景的表现,指出大部分云厂商仍在用上一代模型(DeepSeek V3.2 级别),导致 Agent 能力严重不足——连安装一个 TTS Skill 都会出现幻觉。
ArkClaw(字节)的飞书集成体验测评:从注册到接入飞书全程不超过 5 分钟,支持直接读取飞书文档、多维表格操作,无需手动配置 App ID/Secret。
解读 Sam Altman 关于"一人公司"愿景的观点,AI 工具让单人创业者能够完成过去需要整个团队才能做的事情。
翻译整理 Ramp(估值 320 亿美元)在 Pragmatic Summit 的分享:从"多个 Agent"收敛为"一个 Agent + 一千种技能"架构,内部编码 Agent 已产出超 50% 合并 PR。