去年五月,Sam Altman 在紅杉資本的 AI 峰會上,丟出一份三年倒數時間表:2025 是助理元年,2026 進入科研,2027 踏入實體世界。

當時聽起來像是募資簡報的修辭。但九個月過去,我發現自己每天用 Claude 和 ChatGPT 處理工作的方式,已經跟去年完全不一樣了。不是「更好用」這麼簡單——是整個工作流程被重組。

這讓我重新回頭看那份時間表。不是為了驗證 Altman 是不是先知,而是想搞清楚:我們到底走到哪了?

五級模型:從理論框架變成活的座標

OpenAI 當初提出的五級 AI 進化模型,其實就是一張能力光譜:L1 聊天、L2 推理、L3 代理、L4 創新、L5 組織。去年大家爭論的是「我們在 L2 還是 L3」,現在答案漸漸清楚了。

ChatGPT 的 Agent Mode 已經上線——你可以讓它翻幾百封 email、幫你做研究、自動整理資料。GPT-5 系列從發布到現在,已經迭代出 5.1、5.2,甚至 5.2-Codex 專門跑程式碼任務。OpenAI 在 2026 年 2 月一口氣退役了六款模型,包括 GPT-4o 和 o4-mini,這等於宣告:我們不回頭了。

但這是不是就代表「L3 已到」?我的觀察是:能力到了,可靠性還沒到。你讓 AI 代理幫你做一件事,它八成能完成,但那剩下的兩成正好是你最不能出錯的地方。這不是小問題——這是 L3 和 L4 之間真正的峽谷。

時間表修正:從「三年到 AGI」變成「漸進式覺醒」

最值得關注的,不是 OpenAI 有沒有按表操課,而是他們悄悄修改了敘事方式。

Altman 的最新說法是:「AGI 不是某個神奇的瞬間,更像一個過程,而你已經在路上了。」OpenAI 的首席科學家 Jakub Pachocki 給了更具體的里程碑——2026 年 9 月前做出「研究實習生」等級的 AI,2028 年前做出能獨立完成科研計畫的 AI 研究員。

注意這個轉變:從「三年內到達 AGI」變成「兩年內做出 AI 實習生」。目標降了一級,但時間表反而更可信了。這不是示弱,是工程師式的務實——先證明 AI 能當實習生,再談它能不能當教授。

基礎建設的軍備競賽

原文當時提到 Altman 在參議院聽證會的五項建議,九個月後看,每一項都變成了真金白銀的行動:

「星際之門」計畫已經從簡報變成合約,OpenAI 承諾的基礎建設投資超過 30 吉瓦的運算能力,與 AMD、Broadcom、Google、Microsoft、Nvidia、Oracle 的跨產業供應鏈合約價值數千億美元。Altman 說要把每吉瓦運算成本壓到 200 億美元以下,聽起來像能源政策而不是科技計畫——這正是重點。

當運算力變成像電力一樣的基礎設施,AI 就不再是矽谷的玩具,而是全球的公共財。問題是:誰掌控這個「AI 電網」?

中東棋局:資源換技術的地緣新秩序

原文提到的中東行程——Altman 跟著川普訪問沙烏地、卡達、阿聯——當時看起來像外交秀,現在回頭看是戰略佈局的起手式。沙國承諾 6000 億美元投資、卡達簽下 2435 億美元訂單,這些數字已經超越「科技合作」的範疇。

本質上,這是一筆交易:美國出技術和晶片,中東出錢和能源。AI 訓練吃電吃得兇,而中東有全世界最便宜的能源。這個組合如果成立,它改變的不只是 AI 產業的供應鏈,而是全球權力的重心。

台灣在這個棋盤上的位置呢?我們握著先進製程的命脈,但在 AI 應用端和能源端都不是主角。我在〈台灣半導體的十倍躍遷〉裡談過,製程優勢是護城河也是天花板——如果我們只守著代工,當 AI 價值鏈往應用端和能源端傾斜時,護城河會變成孤島。這個落差,才是真正該焦慮的。

倒數第二年的清醒觀察

回到那份三年時間表。如果 2025 是「助理元年」,這個預測基本兌現——AI 確實從「問答工具」升級成「任務執行者」。但 2026 的「科研元年」呢?

目前來看,AI 做得到的是加速研究流程、整理文獻、跑數據分析。做不到的是提出原創假說、設計實驗、在失敗中修正方向。換句話說,AI 正在變成很好的研究助理,但距離「研究者」還有本質差距。

我個人的判斷:2027 年的「實體世界」目標大概率要延後。不是技術不夠,而是信任不夠。當 AI 開始操作物理世界——工廠、醫療、交通——容錯空間接近零,而目前的可靠性還撐不起這個標準。

三年倒數走到第二年,清醒比樂觀重要。技術在加速,但信任的建立沒有捷徑。