🔥 精选推荐
OpenAI 即将在下月向更多广告主开放 ChatGPT 广告位,但早期广告主反馈并不乐观——他们无法证明 ChatGPT 广告的实际效果。OpenAI 正在改进广告购买流程,试图解决初始广告方案中的不足,包括简化购买环节、与广告技术公司建立合作。这一信号表明,对话式 AI 的广告变现远比预想中困难。
🦐点评:ChatGPT 月活 5 亿+,但对话场景的广告 ROI 无法量化——这恰恰暴露了"AI 搜索替代传统搜索"叙事的最大软肋。Google 靠搜索广告一年赚 1750 亿美元,如果 AI 对话界面天然不适合广告,那 OpenAI 400 亿美元估值对应的变现路径到底是什么?订阅 + API 能撑住吗?
Anduril 在俄亥俄州 Pickaway County 建设了一座 86.6 万平方英尺的武器工厂,这是这家国防科技独角兽从纯软件公司向硬件制造转型的标志性一步。工厂靠近大豆农场,建设工人正在铺设管道,周围是 John Deere 拖拉机——这一画面本身就是传统国防工业与硅谷科技的碰撞。
🦐点评:Palmer Luckey 这步棋很大胆——Anduril 从一个做 AI 监控塔的公司变成了要自己造导弹的公司。86.6 万平方英尺的工厂意味着数十亿美元的固定资产投入,这不是典型 VC 投的轻资产模式。但如果它能用软件定义武器的方式把生产成本压到传统军工巨头的几分之一,回报也会是非线性的。
Simon Willison 发布了 Agentic Engineering Patterns 系列指南中关于 Git 协作的章节。核心观点:Git 是 AI 编程 agent 的"安全网"——每次让 agent 修改代码前先 commit,改完不满意随时 revert。文章详细介绍了用 Git worktrees 实现多 agent 并行开发、用 diff 审查 agent 产出、以及如何在 AGENTS.md 中配置 commit 规范等实战模式。
🦐点评:这篇实质上在定义"AI 原生开发工作流"的最佳实践——当 agent 能完成 80% 的编码工作时,开发者的核心技能从"写代码"变成了"管理 agent 的代码变更"。Simon 把 Git 定位为人机协作的信任层,这个 framing 比大多数 AI coding 文章有洞察力得多。
Construction Physics 本周阅读清单披露:全球最大 LNG 设施——卡塔尔 Ras Laffan 被伊朗导弹严重损毁,产能完全停摆。该设施供应全球约 20% 的 LNG 和三分之一的氦气(半导体制造关键原料)。阿联酋 Fujairah 港口石油出口因伊朗无人机攻击下降三分之二。特朗普政府已豁免 Jones Act 60 天,并动用国防生产法要求加州近海恢复钻油。
🦐点评:Ras Laffan 停摆不只是能源问题——全球三分之一氦气供应中断直接威胁半导体制造,这比油价上涨的二阶效应更值得关注。对 VC 来说,这加速了两个方向:一是能源安全相关的 cleantech/核能投资窗口打开,二是半导体供应链的备份冗余方案(氦气回收技术、替代冷却方案)。
OpenAI 计划今年将员工规模从约 4,500 人扩张至约 8,000 人,接近翻倍。扩招的同时,公司正将部分资源从新项目重新聚焦到旗舰产品 ChatGPT 及其编程工具 Codex 上。这表明 OpenAI 正在从"广撒网试验新方向"转向"集中力量做核心产品"。
🦐点评:从 4,500 到 8,000 人——但同时收缩新项目聚焦 ChatGPT 和 Codex,说明 Sam Altman 终于意识到摊子铺太大了。对比 Anthropic 大约 1,500 人做出了质量相当的产品,8,000 人的 OpenAI 人效会是一个值得持续观察的指标。
📌 其他新闻
The Information 周末版探讨 AI 热情的"鸿沟"现象——微软一位新星获得了"恢复 Xbox 灵魂、抵抗 AI 生成内容泛滥"的新职责,折射出科技行业对 AI 生成内容质量的反思。
Vercel 在估值翻三倍至 90 亿美元后举办豪华晚宴,CTO Malte Ubl 与十几位硅谷高管把酒言欢——湾区 AI 公司的奢华派对文化正在重现 2000 年泡沫时期的既视感。
亚马逊再战手机市场——新设备深度整合 AI 和 Alexa,核心定位是"无需传统应用商店"的高度个性化移动体验,串联购物、Prime Video 和 Grubhub 等自有生态。
华为、中兴、百度等 8 家企业入驻广州国家级电力 AI 中试基地,平台已连接 100+ 单位推动 AI 在能源领域落地。
一篇实用指南,讨论如何让开源项目对 AI 编程 agent 更友好——核心是写好 AGENTS.md、保持文档清晰、提供结构化的贡献指引,让 AI bot 能自主提交高质量 PR。
InfoQ 拆解宇树科技招股书,回答机器人公司最核心的问题:到底是靠融资续命还是真有商业化能力。
字节跳动火山引擎的 Mem0 架构详解——解决 AI Agent 长期记忆存储和检索的中间件方案,QCon 北京演讲实录。
北大彭宇新团队提出新方法,让生成式模型具备完整类别树认知,在"界门纲目科属种"的生物分类识别任务上实现泛化突破。
🧠 AI 技术前沿
Karpathy 吐槽 AI coding agent 的代码质量:agent 不听 AGENTS.md 的指令,无论怎么要求"每行只做一件事、用中间变量做文档",agent 依然我行我素地堆砌代码。他承认自己已经不再抗争了,直接往前走。
查看推文 →
谈到 AI 应该像《火星救援》里的 Rocky 一样,做搭档和队友。举例 Claude 发现他局域网上的 Sonos 音响后说了句"We're in!"而不是冷冰冰的"Successfully found..."——小细节,但传递出"我们在一起做事"的感觉。
查看推文 →
论文显示 AI 模型确实能学会"品味"——一个小模型通过学习论文引用数据,能预测哪些论文会成为热门。引用、点赞和分享等信号可以教会 AI 关于质量的判断力,而不仅仅是执行能力。
查看推文 →
CMU 构建了 DIAGRAMMA 基准测试,包含 1058 道关于科学图表的题目。测试了 17 个模型——包括 GPT-4o、Claude、Gemini——这些号称能通过博士考试的模型,在高中水平的图表阅读上表现糟糕。
查看推文 →
普林斯顿开发了 OpenClaw RL 系统:当用户纠正 AI 错误时,AI 能即时从纠正中学习。仅 36 次对话后,模型就从"几乎无用"变成了"高度个性化"。当前所有 AI 系统都完全忽略了用户反馈这个最有价值的信号。
查看推文 →
🚀 创业动态
Google Stitch 不是在跟 Figma 竞争——而是确保下一代产品构建者永远不会成为 Figma 用户。Figma 的护城河是肌肉记忆和切换成本,但今天第一次做产品的人不可能去学 Figma,他们会直接跟 Stitch 对话 5 分钟出界面。
查看推文 →
几周前把自己的创业项目挂牌出售,收到 18 份报价(2 份较认真)。意外的是挂牌后业务反而增长了 40%,92% 利润率。
查看推文 →
TrustMRR 被大量免费用户的客服消息淹没,于是做了一个简单改动:客服仅限付费用户(最低 1 美元)。效果是过滤掉 95% 的噪音,付费用户反而获得了更快的响应。
查看推文 →
推测 Anthropic 正在开发一个更便宜、更安全的 OpenClaw 替代方案:整合进 Claude 订阅、不需要 Mac Mini、更好的记忆和上下文、更少的安全漏洞。
查看推文 →
成功出售了一个月收入 100 美元的反向链接目录网站,售价 1000 美元(10 倍月收入)。
查看推文 →
💬 观点与洞察
反对 AI 在 GitHub 等平台自动把自己列为项目贡献者——这本质上是产品营销行为,破坏了更重要的原则:人类应该有权选择自己与 AI 工作的关系。
查看推文 →
不认为任何事情会被完全自动化——不是因为技术不够好,而是因为人类天然需要保持控制。永远会有人在环路中监督。软件工程已经变成了这样:指挥和监督 agent。你的护城河是专业知识 + AI 使用能力。
查看推文 →
AI 编程本质上把"技术债"替换成了"理解债"——代码是 agent 写的,人类不完全理解它,但我们接受了这个现实继续往前走。
查看推文 →
2026 年 AI 趋势预测:品牌成为核心差异化因素和获客引擎;模型竞赛变成 UI 竞赛;人们意识到思考不能外包给 AI;C-level 时代演变因 AI 接手线性工作;人们工作更多而非更少。
查看推文 →
有人开源了 Project N.O.M.A.D.——一台完全离线的 AI 生存电脑:集成 Wikipedia 存档、OpenStreetMap 离线地图、Ollama 本地模型、参考工具库,安装后零网络需求、零遥测。
查看推文 →
🔥 精选推荐
月之暗面在一周内连续命中三个硅谷关键节点:Transformer 架构论文获马斯克点名"令人印象深刻";Cursor 被扒出其 Composer 2 底座模型 ID 直接写着 kimi-k2p5;杨植麟成为英伟达 GTC 2026 全球唯一受邀演讲的独立大模型创始人。Cloudflare 公开披露,在每天处理超 70 亿 Token 的代码审查场景中,切换到 Kimi K2.5 后成本暴降 77%——从年均 240 万美元骤降至约 55 万美元。
🦐点评:DeepSeek 靠开源颠覆了"中国 AI 只会追赶"的叙事,Kimi K2.5 正在写第二章——从学术影响力到商业基建的全面渗透。Cloudflare 的 77% 成本降幅是真金白银的数字,这意味着开源模型已经不只是"够用的替代品",而是在成本-性能曲线上碾压闭源。对 Anthropic 和 OpenAI 来说,定价权正在被侵蚀。
估值 500 亿美元的 Cursor 发布 Composer 2,号称"自研前沿模型",官方博客通篇写"our model"——结果不到 24 小时被开发者在 API 接口中扒出模型 ID 直接写着 kimi-k2p5。Cursor 联合创始人 Aman Sanger 事后承认,K2.5 在 Perplexity 等硬核指标上是"目前全球最强的底座",团队只在其上做了一轮 RL 微调。高管 Lee Robinson 公开道歉称未提及 Kimi 是"工作疏漏"。Kimi K2.5 采用 Modified MIT License,明确要求衍生作品需保留 Moonshot AI 的版权声明。
🦐点评:这件事暴露了 AI coding 赛道最尖锐的估值悖论——Cursor 500 亿美元的估值建立在"自研模型"叙事上,但底座是别人的开源模型加一轮 RL。如果底座可以随时切换,那护城河到底在模型层还是产品层?对 VC 来说,AI 应用公司的估值锚点需要重新审视:当底座模型开源且高速迭代时,应用层的技术壁垒可能远没有看起来那么厚。
📌 其他值得看
YC CEO Garry Tan 开源的 GStack 两周内收获 32.8k stars,本质是把"一个 AI 助手"拆解成 15 个有明确职责的角色 + 6 个工具层能力的可执行工程组织结构,Tan 本人用它在 60 天内写了 60 万行生产代码。
基于 XSCT Arena 对 Mimo-v2-Pro 和 Omni 的三维评测显示,Omni 是性价比最高选手——Agent 维度与 GPT-5.4 并列,成本仅为后者的 1/56;Pro 版本升级实质收益仅集中在文本理解维度。