🔥 精选推荐
特朗普在 2025 年 1 月高调宣布的 5000 亿美元 Stargate 数据中心计划,一年多后仍未进入实质建设阶段:Stargate 合资公司既未完成人员配置,也未开始开发 OpenAI 任何数据中心。这直接导致 OpenAI 不得不在全球范围内紧急寻找其他算力来源,以维持模型训练和推理的正常运转。消息来源于三名知情人,可信度较高。
🦐点评:Stargate 停摆的核心矛盾在于:OpenAI 把算力战略押注在一个需要三方协调(OpenAI、SoftBank、Oracle)且严重依赖政治背书的架构上,而不是自建或锁定独立算力。这暴露出 OpenAI 当前阶段的脆弱性——模型能力的领先地位随时可能被算力短板抵消。对投资人而言,这是一个信号:谁能解决 AI 公司的算力自主权问题,可能比模型层更有确定性。
The Information 此前独家报道了 OpenAI 最新长期财务预测:2025 年运行 AI 模型的成本翻了四倍,导致公司毛利率受到严重压制。尽管如此,OpenAI 的收入和利润预测依然保持高度乐观——这种乐观被作者称为"magical thinking(魔法思维)"。文章以 Nvidia 本周财报季为背景,暗示市场对 AI 基础设施需求的判断将受到考验。
🦐点评:毛利率被成本四倍增长压垮,但估值仍在按乐观预测定价——这是当前 AI 头部公司的共性问题,不只是 OpenAI。对 VC 而言更关键的是:随着推理成本继续压缩(更小更快的模型),这条毛利率曲线是会反转还是继续恶化?如果是前者,现在的痛苦是暂时的;如果是后者,2030 年 1120 亿美元收入预测就是真正的魔法。
文章围绕媒体理论家 Walter Ong 的"口语性"框架,提出当代社交媒体正在将人类的信息传播模式从书写文明带回口语文明:反应快、病毒式传播、以表演性替代沉思。Bloomberg 主持人 Joe Weisenthal 认为,启蒙以来基于书写的线性思维——逻辑、理性、精英制度——正在被"即时互动文化"侵蚀,而这恰恰是大多数现代制度得以运转的底层操作系统。
🦐点评:这个框架对 AI 内容行业有直接的投资含义——口语化文化的回归意味着"短视频 > 长文章"的趋势还在加速,而 AI 生成内容的最大竞争优势恰好在于规模化制造口语感内容(短片、配音、对话式 AI)。反过来说,依赖"深度阅读"用户的媒体和教育 SaaS,护城河正在被这波浪潮腐蚀。
OpenAI APAC 开发者体验工程师 Gabriel Chua 提出了理解 Codex 的三层架构:Model(智能)+ Harness(连接模型与真实开发环境的指令/工具集)+ Surfaces(使用界面,如 CLI、ChatGPT、Cursor)。关键点在于:Codex 的模型是在 Harness 存在的条件下训练的,工具调用、执行循环、错误恢复不是外挂行为,而是模型学习的一部分——这是 OpenAI 首次从内部视角确认这一设计逻辑。
🦐点评:Codex 把模型能力和 Harness 训练绑定在一起,意味着竞争对手单靠调用同类底层模型并套上工具调用框架是不够的——差距在于训练数据和 Harness 的协同程度。Cursor、Copilot 这些工具在同一底层模型上能跑,但做不出 Codex 级别的 Agent 行为,正是这个原因。这套逻辑也是为什么 AI coding 赛道,前端界面容易被复制,但 Agent 行为能力的壁垒会越来越高。
Reddit IPO 后最高涨近 700%,去年秋天股价曾触及约 270 美元。但过去五周股价回落 42%,The Information 分析认为这与其 AI 数据授权收入的可持续性预期下调有关——这是 Reddit 相较 Snap、Pinterest 等同类公司溢价定价的核心逻辑所在,一旦市场质疑这部分收入,估值体系会出现明显重定价。
🦐点评:Reddit 的 AI 数据授权故事是 2024 年互联网 IPO 最重要的新叙事——它第一次让"存量内容数据"有了明确的货币化路径。但 42% 的回撤说明市场开始重新评估这条路径的持续性:随着大模型训练数据需求趋于饱和,后续续约价格和新签增量是否还能支撑估值?这是所有依赖 AI 授权讲故事的 UGC 平台都需要面对的二阶问题。
📌 其他新闻
奥特曼在印度演讲时公开回击马斯克提出的"太空数据中心"构想,称其"荒谬",表示这或许未来会成立,但现在不现实——被解读为两人在 AI 基础设施战略上分歧的公开化表态。
春节后港股首个交易日,智谱大涨 42.72%、MiniMax 涨超 14%,两家公司市值携手突破 3000 亿港元,成为中国国产大模型港股上市后的标志性时刻。
自 2025 年中以来,Meta、谷歌、英伟达已在"收购性招聘"中砸超 360 亿美元,OpenAI 与 Anthropic 之间互挖核心研究员,顶级研究员年薪被推至千万乃至数亿美元,硅谷人才市场进入极端竞争状态。
Andrej Karpathy 提出,随着 AI Agent 能够按需生成一次性软件,传统应用商店模式将被颠覆——用户可能不再需要下载并长期维护 App,而是让 Agent 实时生成满足当前需求的"一次性工具"。
量子位梳理中美 AI 头部玩家近 47 天的更新密度,指出中国 AI 的相对优势正在向具体垂直场景集中,而非在基础模型上全面追平,文章试图为中国 AI 找一个"最强主场"的叙事锚点。
以披萨、CSV 等日常场景为切入点,探讨 AI 如何催生"为尚不存在的市场而建"的创业思维——在 AI 能力曲线上提前押注用户需求还未显现的赛道。
技术短文,梳理 .github/、.gitlab/、.gitea/、.forgejo/、.bitbucket/ 等各代码托管平台专属目录的具体用途,适合需要在多平台维护 CI/CD 配置的开发者参考。
🧠 AI 技术前沿
LLM-as-judge 的评测体系正在失效:新研究表明,较弱的裁判模型无法准确评估比自己更强的被测模型,导致 benchmark 的"裁判"成为精度瓶颈而非数据集本身。
查看推文 →
AI 对视频和图像的实时理解能力严重被低估——即便带着各种误差,让 AI 实时"观察世界"的应用场景仍然巨大,而目前几乎没有产品或论文在认真探索这个方向。
查看推文 →
Google DeepMind 提出了一种优雅的方案来解决扩散模型潜空间编码器的训练不稳定问题:通过改进 KL 惩罚项的设计让编码器训练过程变得有据可查,而非依赖"凭感觉调参"——这可能对 Stable Diffusion、Flux 等主流图像生成框架的下一代设计产生影响。
查看推文 →
🚀 创业动态
低中端开发工作已经可以被 $100/月的 Claude Code 替代,且通常更快、不休息、不生病——真正值得保留的只有顶尖开发者(能做 AI 做不到的事)以及能引导 AI 完成复杂任务的"AI 领队"角色。
查看推文 →
利用 Claude Code 疯狂交付,把产品 backlog 从 30 个功能/bug 压到 10 个——他的工作流是把 bug 和功能需求直接粘贴给 Claude Code,让它修好再测试,几乎无需自己写代码。
查看推文 →
使用 Claude Code 六个月、Codex 几天后的横向对比:Codex 比一年前的任何工具都强,但 Claude Code 让写代码有种"打游戏"的感觉,完成相同任务花的时间更少,过程也更有趣。
查看推文 →
Claude Code 在两小时内将一个中等复杂代码库中的新功能从零跑通,六个月前同样的工作需要他花 6 小时以上且经常出错——感叹模型进步速度之快,开始怀疑不久后连 UI 都不再需要了。
查看推文 →
用自己的网站赚了 200 万美元,但至今不知道 Docker 是什么——独立开发者在 AI 工具加持下绕过传统基础设施知识实现变现的典型案例。
查看推文 →
💬 观点与洞察
推特上普遍高估企业采用 AI 的速度,同时低估 AI 能力"参差不齐"对短期实用性的制约——AI 改变工作是确定性趋势,但公司有大量惯性,变化会比想象中慢。
查看推文 →
AI 实验室 CEO 过去两年一边推进 AI 开发,一边大谈未来大规模失业——随着 AI 对普通人越来越直观可感,工人和政策制定者会开始认真看待这些"预言",AI 公司将进入舆论压力的新阶段。
查看推文 →
"AI 淘汰 SaaS"的列表方向正确,但逻辑框架搞反了:这些工具之所以存在,是因为它们填补了普通人"想要结果"和"不会操作专业工具"之间的鸿沟。AI 消灭的不是 SaaS 本身,而是让这道鸿沟不再存在——真正的护城河从来不是功能,而是分发和用户习惯。
查看推文 →
提出一种让 AI 输出质量提升 100 倍的方法:部署 3-5 个子 Agent 同时从不同框架角度审查 Claude 的输出——关键是用真实思想体系(如已知思想家的框架)而非虚构的"专家人设",让不同视角形成真正有价值的分歧。
查看推文 →
每次有公司用"AI 替代软件工程师"来美化裁员,都可以用数据打脸——暗示真实情况是多数公司的 AI 替代叙事名不副实,用来掩盖其他原因的裁员。
查看推文 →
给一个非技术圈的普通朋友安装了 OpenClaw,对方已经开始自己写小型 Web 服务,还把家里的设备自动化了——AI 编程工具普惠非开发者的真实案例,暗示用户增长空间远未见顶。
查看推文 →
🔥 精选推荐
智谱发布 GLM-5 完整 40 页技术报告,核心参数:744B 总参数、40B 激活,MoE 架构,在 Artificial Analysis Intelligence Index 上以 50 分拿下开源第一,a16z 公开将其与 Claude Opus 4.6 并排对比。三大架构创新:MLA+Muon Split(解决 MLA 与 Muon 优化器不兼容问题)、参数共享的多 Token 预测(平均接受长度 2.76,优于 DeepSeek-V3.2 的 2.55)、DSA 稀疏注意力(只用 20B token 追平 DeepSeek 花 943.7B token 训出的效果,将长序列注意力计算成本降低 1.5-2 倍)。后训练采用完全异步 Agentic RL 框架,支持 1000+ 并发 rollout,训练和推理 GPU 物理分离。评测数据显示其在 BrowseComp(搜索 Agent 基准)上以 75.9 分超越所有闭源模型。
🦐点评:GLM-5 最值得关注的不是跑分,而是两个 VC 视角的信号:一是国产芯片适配覆盖七个平台,单台昇腾节点推理性能接近两台国际主流 GPU 集群——智谱在做一个在制裁情境下也能跑起来的模型,这是差异化战略不是技术选秀;二是 DSA 训练效率(1/47 的 token 预算追平竞品)意味着同等算力预算下未来还有继续提升的空间。开源模型追平闭源的速度越来越快,这对所有在闭源 API 之上构建产品的公司是长期利空。
General Intuition(GI)创始人 Pim de Witte 拒绝 OpenAI 5 亿美元收购邀约,随后从早期投资人 Khosla Ventures 拿到 1.337 亿美元种子轮(1337 是黑客文化 "leet" 的梗)。GI 的核心资产是旗下 Medal.tv 每年积累的约 20 亿条游戏短视频,覆盖 1000 万月活用户和数万款游戏,这正是 OpenAI 想收购的数据。GI 的技术路径是训练一个"物理大脑"——通过预测下一帧物理状态(而非下一个词)来让 AI 理解物理世界,CTO Anthony Hu 来自 Wayve 的 GAIA-1 世界模型项目。商业化路径:先从游戏 NPC 切入,逐步延伸至无人机、机器人,目标是成为具身智能时代的通用操作系统。
🦐点评:这个故事的投资逻辑核心是"数据飞轮的天花板"——Medal 的数据优势不只是量大,而是边际成本接近零(用户自发上传)且带有隐性动作标签(玩家操作即标注)。但 bear case 同样清晰:游戏物理环境和真实世界物理的差距巨大,从游戏 NPC 到机器人操作系统的跨越,历史上还没有哪家公司成功走完全程。$134M 种子轮押注的是这条路径可行,时间和模型泛化能力都还未验证。
📌 其他值得看
Meta 首席 AI 官 Alexandr Wang 在印度 AI Impact Summit 发言,提出两条主线:一是 AI 进入"递归自我改进(RSI)"阶段,模型开始帮助创造下一代模型,研发速度实现量级跃升;二是 Agent 从概念走向实战,2026 年将在全球多个经济领域大规模部署。文章为翻译编译,观点值得参考,但无独家信息。