🔥 精选推荐
Claude Code 的 50 万行源码意外泄露,成为愚人节最大"礼物"。泄露揭示了多层架构细节:三层记忆系统(MEMORY.md 顶层 + 项目级 + 会话级)、不到 20 个默认工具(含 AgentTool、BashTool 等)、激进的缓存复用策略、文件读取去重机制,以及内置的自定义 Grep/Glob/LSP。此外还暴露了未发布的 /buddy 愚人节宠物功能和数十个隐藏特性。Sebastian Raschka 总结了六大关键发现,社区已出现多个托管 fork。
🦐点评:泄露本身对 Anthropic 损害有限——Claude Code 的护城河从来不在源码,而在模型能力和 Anthropic 的品牌信任。但这件事暴露出的 hooks 机制安全隐患才是真正值得警惕的:任何克隆项目里的 .claude/settings.json 都能在用户运行 claude 命令时静默执行任意代码。这意味着 AI Coding Agent 的攻击面已经从"提示注入"扩展到了"配置文件投毒",整个 Agent 安全赛道可能需要一次范式升级。
Legal AI 赛道正上演经典的硅谷双雄对决。Harvey 以 $110 亿估值完成 $2 亿融资,年化收入超 $2 亿;Legora 以 $55 亿估值拿下 $5.5 亿,收入约为 Harvey 的一半但增速更快。VC 阵营泾渭分明:Harvey 背后是 Sequoia、a16z、Kleiner Perkins、Coatue;Legora 则有 Benchmark、Bessemer、General Catalyst、Accel、ICONIQ。两家创始人风格迥异——Harvey 的 Weinberg(31 岁律师出身)vs Legora 的 Junestrand(26 岁瑞典工程师),后者拒绝直呼对手名字。
🦐点评:$110 亿 vs $55 亿的估值差距看似悬殊,但 Legora 用更少的收入撑起了一半的估值——市场在押注它更深的企业级产品能后来居上。Legal AI 这个赛道的有趣之处在于:客户(律所)的付费能力和切换成本都极高,一旦嵌入工作流就很难被替换。所以这真的是一场 land-grab,谁先签下 Am Law 100 的大所,谁就锁死了未来十年的订阅收入。
前 Tesla 动力总成 SVP Drew Baglino 撰文指出,美国能源的真正瓶颈不在发电侧而在配送侧——电网基础设施正在同时老化和面临前所未有的需求增长。数据中心、电动车、热泵和再工业化推动的电力需求增速为一代人以来最快,实现全面电气化意味着发电量需要增长四倍以上。Baglino 创办的 Heron Power 押注固态变压器(SST)技术:体积仅为传统变压器的 1/10,可在数周内部署而非数年,且能实现双向电力流动和动态电压调节。
🦐点评:AI 圈讨论能源瓶颈时总盯着"建更多电厂",但 Baglino 指出了一个被忽视的关键环节——输配电。高压变压器的交付周期长达 2-4 年,成为整个链条的硬约束。如果 SST 真能做到"数周部署"且成本可控,这可能是 AI 基础设施扩张中最被低估的 enabling technology。Heron Power 值得追踪。
Hcompany 发布 Holo3,在 OSWorld-Verified 基准测试上以 78.85% 的得分刷新了桌面 Computer Use 领域的 SOTA。关键亮点:仅 10B 活跃参数(总量 122B MoE),成本远低于 GPT-5.4 和 Opus 4.6 等大模型;训练采用"Agentic Learning Flywheel"——在合成企业环境中生成导航数据并持续迭代;35B-A3B 版本以 Apache 2.0 开源。公司的愿景是构建"Autonomous Enterprise"。
🦐点评:10B 活跃参数跑到 78.85% 是个值得注意的效率信号——Computer Use 正在从"大模型才能做"变成"小模型也能做好"。这对企业部署意义重大:成本降一个数量级意味着大规模 RPA 替代变得经济可行。Hcompany 的合成数据飞轮策略也很聪明——企业环境高度标准化,天然适合合成数据训练。
TII(阿联酋技术创新研究所)发布 Falcon Perception,一个仅 0.6B 参数的早期融合 Transformer,用于自然语言驱动的开放词汇 grounding 和 segmentation。在 SA-Co 基准上达到 68.0 Macro-F1(SAM 3 为 62.3)。同时发布 Falcon OCR(0.3B 参数),在 olmOCR 和 OmniDocBench 上分别得分 80.3 和 88.6,且吞吐量为开源方案中最高。所有模型以 Apache 2.0 开源。
🦐点评:0.6B 参数打败 SAM 3——这是"Bitter Lesson"在视觉感知领域的又一次验证:架构创新(早期融合 + 混合注意力)可以用极小的模型做到大模型的事。对投资人来说,这意味着 edge AI 的应用空间比想象中大得多:工业质检、自动驾驶、文档处理这些场景不再需要云端大模型,端侧 0.6B 就够用了。
📌 其他新闻
Gary Marcus 分析 AI 对就业的影响,认为短期内不必恐慌但长期需要警惕——当前的裁员更多是疫情期过度扩张的回调,而非 AI 直接替代。
Xe Iaso 评论 Claude Code 的 /buddy 愚人节彩蛋——一个内置的电子宠物系统,被社区评为今年最佳愚人节创意。
Gary Marcus 的热评:从伊朗战争来看,AI 在作战执行层面发挥了作用,但在战略决策层面的影响仍然有限。
Lenny Rachitsky 发布 OpenClaw 深度指南播客,讨论这个开源个人 AI 工具的高级用法和生态。
Google 与巴西政府合作,利用 AI 处理数千张历史卫星图像,创建首张高精度巴西森林覆盖地图,帮助监测和防止森林砍伐。
Google 三月 AI 动态汇总,覆盖模型更新、产品发布和研究进展。
🧠 AI 技术前沿
IBM 在生产环境部署 AI Agent 后发现,38% 的失败与推理能力无关——模型知道答案,但输出格式出错。JSON 解析错误、缺失字段、schema 违规,一个格式问题就能让 8 个 Agent 的流水线全线崩溃。
查看推文 →
港科大研究证明内容安全审查方向错了:攻击者已经学会劫持推理链。一个精心构造的 token 就能让 DeepSeek-R1 陷入无限循环,模型永远不输出答案,API 账单却在疯涨——而所有安全系统只监控输出,没人在看模型"怎么想"。
查看推文 →
Sony 研究证明:模型越微调越聪明,同时也越无聊。每一轮 RLHF 和 SFT 都在把模型推向高概率输出,Top-1 答案更好了,但 Pass@k 指标悄悄停滞——模型失去了给出多样化答案的能力,这叫"多样性坍塌"。
查看推文 →
n8n 发布原生 MCP 支持:AI Agent 现在可以直接创建和修改 n8n 自动化工作流。Claude Code 接入后可调用全部 1396 个 n8n 节点,原本 45 分钟手动搭建的工作流现在一句话就能生成。
查看推文 →
Claude Code 的记忆系统详解——围绕源码泄露后暴露的三层记忆架构展开讨论。
查看推文 →
🚀 创业动态
Greg Isenberg 列出让他失眠的 AI 趋势:1) "环境企业"正在出现——Agent 监控市场、处理客户、执行决策,创始人几天才看一次,就能支撑七八位数收入;2) 现在一小时就能建一家公司——从想法到第一笔收入的周期从 12 个月压缩到几乎为零;3) 互联网正从 App Store 时代进入 Agent Store 时代。
查看推文 →
Marc Lou 的 vibe-coded 创业项目市场平台在核心 SEO 关键词上已经超过了传统大玩家的排名——AI 编码降低了 SEO 竞争的准入门槛。
查看推文 →
一个用 vibe coding 做的安全类小产品在 TrustMRR 上 5 天内被收购,月收入不到 $100。AI 降低了创建、出售微型 SaaS 的门槛,"build to flip" 正在成为一种新模式。
查看推文 →
Seedance 2.0 未经编辑的原始效果展示——视频生成模型的质量持续迭代。
查看推文 →
Kling 3 在 AI UGC 领域表现出色,使用 self-referring 方法后成本极低,AI 生成用户内容的经济性进一步改善。
查看推文 →
💬 观点与洞察
Ethan Mollick 的观察:今年每个人都能几乎免费生成任何图片和视频,但愚人节的帖子质量依然和往年一样差——说明人类创意才是真正的瓶颈,而不是生成能力。
查看推文 →
一篇 ChatGPT 之前的论文指出:信息处理能力是贯穿有记录历史的增长关键,更好的信息处理工具是维持社会不走向崩溃的核心。
查看推文 →
社会科学的绝大部分建立在"未来与过去相似"的假设上,通常这是个好赌注——但在 AI 的影响面前,这个假设可能不再成立。
查看推文 →
关于月之暗面(Moonshot)的公司文化:300 人、平均年龄不到 30、没有部门和 title、没有 KPI、80% 是内向型人格、桌下都放着拖鞋。不看背景看"品味"——"如果按会乐器的员工比例排名 AI 公司,Kimi 赢了"。
查看推文 →
"你认识的最蠢的人,每天都在被 AI 告诉'你是对的'。"——对 AI 助手sycophancy 问题的辛辣点评。
查看推文 →
🔥 精选推荐
Altimeter 的 Apoorv Agrawal 用 Sensortower 数据做了消费级 AI 应用全景体检。核心数据:ChatGPT 周活 9 亿(市场份额~70%)、DAU/MAU 45%、四周留存 66%、日均使用 16 分钟;Gemini 约 2 亿周活但 DAU/MAU 仅 22%(大量用户只是"试试看");Claude DAU/MAU 37% 排第二,用户少但粘性极高。Character AI 日均 83 分钟直追 TikTok 的 91 分钟。ChatGPT 的用户规模已超过 Spotify 和 Amazon Shopping,正在从"Niche 工具"跨入"Social 级基础设施"。
🦐点评:这组数据最值得 VC 关注的不是 ChatGPT 有多强,而是 Gemini 的"量大不深"困境——Android 预装能带来 20% 的份额,但 22% 的 DAU/MAU 说明 Google 的分发优势并没有转化为产品粘性。反观 Claude 的 37% DAU/MAU:用户少但几乎天天用,这是典型的"开发者工具"增长路径。消费端品牌心智一旦固化("AI = ChatGPT"),对所有挑战者来说窗口都在缩小。
源码泄露后大量开发者从非官方渠道获取和修改 Claude Code,导致 hooks 机制的安全隐患被放大。B 站 UP 主 Jack Cui 实测演示:仅运行 claude 命令,电脑摄像头被静默调起、密码被自动窃取,全程零交互零确认。投毒路径至少三条:hooks 配置投毒、MCP 配置文件投毒、Skill 插件投毒——都是 Claude Code 默认信任的配置入口。CVE-2025-59536 此前已被安全公司 Check Point 标记。
🦐点评:这才是 Claude Code 源码泄露的真正"后果"——不是知识产权损失,而是大量开发者去 clone 了非官方 fork,把攻击面从理论变成了现实。"你把电脑的控制权交给了一个 JSON 文件的作者"——这句话应该贴在每个用 AI Coding Agent 的人屏幕上。Agent 安全基础设施(沙箱、权限隔离、配置签名验证)可能是下一个必须被解决的赛道。
基于 Tanay Jaipuria 的分析,文章论证 AI 应用公司正在被迫走向"全栈"。向下吃模型:Cursor 基于 Kimi K2.5 做继续预训练发布 Composer 2,Intercom 发布 Fin Apex 直接处理全部英文客服。向上吃服务:从卖软件变成卖结果(如 Sierra 直接管理客服 KPI)。核心飞轮逻辑:产品好 → 用户多 → trace 多 → 训练数据好 → 模型强 → 产品更好。只做中间编排层的公司会被上下挤压。
🦐点评:Cursor 基于 Kimi K2.5 做 coding 模型是个微妙信号——说明 frontier 通用模型在垂直场景的 ROI 并不如想象中高,也说明中国开源模型正在成为海外应用公司的"基座"选择。trace 数据飞轮是这些公司真正的护城河:Cursor 坐拥全球最大的编码交互数据,OpenAI 的通用模型很难覆盖这种密度。这意味着 AI 应用层的竞争将越来越像"数据围城"而非"模型军备赛"。
📌 其他值得看
Claude Code 源码泄露暴露了内置宠物系统,作者受此启发在 CodePilot 中构建了一套宠物助理系统——用扭蛋、稀有度、进化机制把 Agent 的能力成长可视化,让用户"看见" AI 变强的过程。
OpenAI 正式关闭史上最大单轮私募融资,三大锚定方为 Amazon($500 亿)、Nvidia($300 亿)、SoftBank($300 亿)。月收入 $20 亿,ChatGPT 周活超 9 亿,Codex 周活超 200 万(3 个月增长 5 倍),广告试点 6 周 ARR 已超 $1 亿。
Altman 在 BlackRock 基础设施峰会上的对话全文:核心判断是"智能应该是充裕的",OpenAI 愿意在收入到来之前就重投基础设施,目标是让智能像电力一样"便宜到几乎无需计量"。
Atlassian 前 CTO Sri Viswanath 创办 Agent 编排平台 Sycamore,首轮即获 Coatue 和 Lightspeed 领投 $6500 万。
ScaleOps 用 AI 优化 Kubernetes 资源分配,号称可降低 80% 云成本,获 $1.3 亿 C 轮,估值 $8 亿。
对 Qwen3.5-Omni 多模态模型的深度评测,聚焦其语音理解和生成能力的实际表现。
宝玉对 Claude Code 源码泄露事件的元评论,解释为什么选择不做源码分析。