去年五月,Sam Altman 在红杉资本的 AI 峰会上,丢出一份三年倒数时间表:2025 是助理元年,2026 进入科研,2027 踏入实体世界。

当时听起来像是募资简报的修辞。但九个月过去,我发现自己每天用 Claude 和 ChatGPT 处理工作的方式,已经跟去年完全不一样了。不是「更好用」这么简单——是整个工作流程被重组。

这让我重新回头看那份时间表。不是为了验证 Altman 是不是先知,而是想搞清楚:我们到底走到哪了?

五级模型:从理论框架变成活的坐标

OpenAI 当初提出的五级 AI 进化模型,其实就是一张能力光谱:L1 聊天、L2 推理、L3 代理、L4 创新、L5 组织。去年大家争论的是「我们在 L2 还是 L3」,现在答案渐渐清楚了。

ChatGPT 的 Agent Mode 已经上线——你可以让它翻几百封 email、帮你做研究、自动整理资料。GPT-5 系列从发布到现在,已经迭代出 5.1、5.2,甚至 5.2-Codex 专门跑程序代码任务。OpenAI 在 2026 年 2 月直接退役了 GPT-4o 和 o4-mini,这等于宣告:我们不回头了。

但这是不是就代表「L3 已到」?我的观察是:能力到了,可靠性还没到。你让 AI 代理帮你做一件事,它八成能完成,但那剩下的两成正好是你最不能出错的地方。这不是小问题——这是 L3 和 L4 之间真正的峡谷。

时间表修正:从「三年到 AGI」变成「渐进式觉醒」

最值得关注的,不是 OpenAI 有没有按表操课,而是他们悄悄修改了叙事方式。

Altman 的最新说法是:「AGI 不是某个神奇的瞬间,更像一个过程,而你已经在路上了。」OpenAI 的 CTO Jakub Pachocki 给了更具体的里程碑——2026 年 9 月前做出「研究实习生」等级的 AI,2028 年 3 月前做出能独立完成科研计划的 AI 研究员。

注意这个转变:从「三年内到达 AGI」变成「两年内做出 AI 实习生」。目标降了一级,但时间表反而更可信了。这不是示弱,是工程师式的务实——先证明 AI 能当实习生,再谈它能不能当教授。

基础建设的军备竞赛

原文当时提到 Altman 在参议院听证会的五项建议,九个月后看,每一项都变成了真金白银的行动:

「星际之门」计划已经从简报变成合约,OpenAI 承诺的基础建设投资超过 30 吉瓦的运算能力,与 AMD、Broadcom、Google、Microsoft、Nvidia、Oracle 的跨产业供应链合约价值数千亿美元。Altman 说要把每吉瓦运算成本压到 200 亿美元以下,听起来像能源政策而不是科技计划——这正是重点。

当运算力变成像电力一样的基础设施,AI 就不再是硅谷的玩具,而是全球的公共财。问题是:谁掌控这个「AI 电网」?

中东棋局:资源换技术的地缘新秩序

原文提到的中东行程——Altman 跟着川普访问沙特、卡塔尔、阿联酋——当时看起来像外交秀,现在回头看是战略布局的起手式。沙国承诺 6000 亿美元投资、卡塔尔签下 2435 亿美元订单,这些数字已经超越「科技合作」的范畴。

本质上,这是一笔交易:美国出技术和芯片,中东出钱和能源。AI 训练吃电吃得凶,而中东有全世界最便宜的能源。这个组合如果成立,它改变的不只是 AI 产业的供应链,而是全球权力的重心。

台湾在这个棋盘上的位置呢?我们握着先进制程的命脉,但在 AI 应用端和能源端都不是主角。这个落差,才是真正该焦虑的。

倒数第二年的清醒观察

回到那份三年时间表。如果 2025 是「助理元年」,这个预测基本兑现——AI 确实从「问答工具」升级成「任务执行者」。但 2026 的「科研元年」呢?

目前来看,AI 做得到的是加速研究流程、整理文献、跑数据分析。做不到的是提出原创假说、设计实验、在失败中修正方向。换句话说,AI 正在变成很好的研究助理,但距离「研究者」还有本质差距。

我个人的判断:2027 年的「实体世界」目标大概率要延后。不是技术不够,而是信任不够。当 AI 开始操作物理世界——工厂、医疗、交通——容错空间接近零,而目前的可靠性还撑不起这个标准。

三年倒数走到第二年,清醒比乐观重要。技术在加速,但信任的建立没有捷径。