昨年5月、Sam AltmanはSequoia CapitalのAIサミットで、三年カウントダウンのタイムテーブルを発表した:2025年はアシスタント元年、2026年は科学研究へ進出、2027年は物理世界に踏み込む、というものだった。
当時は資金調達プレゼンのレトリックのように聞こえた。しかし9ヶ月が過ぎ、私が毎日ClaudeとChatGPTを使って仕事を処理する方式が、昨年とは完全に異なることに気づいた。単に「より使いやすくなった」という話ではない——ワークフロー全体が再構築されたのである。
これにより、私はあのタイムテーブルを改めて見直すことにした。Altmanが予言者かどうかを検証するためではなく、我々が実際どこまで来たのかを把握したいからである。
五段階モデル:理論的枠組みから生きた座標へ
OpenAIが当初提示した五段階AI進化モデルは、実際には能力スペクトラムの一つの図表である:L1チャット、L2推論、L3エージェント、L4イノベーション、L5組織。昨年皆が議論していたのは「我々はL2にいるのかL3にいるのか」だったが、今答えが徐々に明らかになってきた。
ChatGPTのAgent Modeは既にローンチされている——数百通のメールを処理させたり、研究を手伝わせたり、自動でデータを整理させることができる。GPT-5シリーズはリリースから現在まで、既に5.1、5.2、さらにはコードタスク専用の5.2-Codexまで反復開発された。OpenAIは2026年2月にGPT-4oとo4-miniを直接引退させた。これは宣言に等しい:我々は後戻りしない、と。
しかし、これは「L3に到達した」ことを意味するのだろうか?私の観察では:能力は到達したが、信頼性はまだである。AIエージェントに何かを代行させると、8割は完遂できるが、残りの2割がちょうど最もミスが許されない部分なのだ。これは些細な問題ではない——これこそがL3とL4の間の真の峡谷である。
タイムテーブルの修正:「三年でAGI」から「漸進的覚醒」へ
最も注目すべきは、OpenAIが予定通りに進んでいるかどうかではなく、彼らが静かに語り方を修正していることである。
Altmanの最新の発言は:「AGIは魔法的な瞬間ではなく、むしろプロセスであり、あなたは既にその道のりにいる。」OpenAIのCTO Jakub Pachockiはより具体的なマイルストーンを示した——2026年9月前に「研究インターン」レベルのAI、2028年3月前に独立して科学研究プロジェクトを完成できるAI研究者を作る。
この転換に注目せよ:「三年内にAGIに到達」から「二年内にAIインターンを作る」へ。目標は一段階下がったが、タイムテーブルはむしろより信憑性が増した。これは弱音を吐いているのではなく、エンジニア的な実用主義である——まずAIがインターンとして機能することを証明し、その後教授になれるかを論じる。
インフラ軍拡競争
原文で当時言及されたAltmanの上院公聴会での五項目提案を見ると、9ヶ月後、その一つ一つが実際の資金と行動に変わっている:
「スターゲート」計画は既にプレゼンから契約へと変わり、OpenAIが約束したインフラ投資は30ギガワットを超える計算能力で、AMD、Broadcom、Google、Microsoft、Nvidia、Oracleとの業界横断サプライチェーン契約は数千億ドルの価値がある。Altmanは1ギガワットの計算コストを200億ドル以下に抑えると述べたが、これはテクノロジー計画というより、エネルギー政策のように聞こえる——これこそがポイントである。
計算力が電力のようなインフラになれば、AIはもはやシリコンバレーのおもちゃではなく、グローバルな公共財となる。問題は:誰がこの「AI電力網」を掌握するのか?
中東の盤面:資源と技術を交換する地政学的新秩序
原文で言及された中東行程——Altmanがトランプと共にサウジアラビア、カタール、UAEを訪問——は当時外交ショーのように見えたが、今振り返ると戦略配置の出だしだった。サウジが6000億ドルの投資を約束、カタールが2435億ドルの注文に署名したこれらの数字は、既に「技術協力」の範疇を超えている。
本質的に、これは取引である:米国が技術とチップを出し、中東が資金とエネルギーを出す。AI訓練は電力を大量消費するが、中東には世界で最も安価なエネルギーがある。この組み合わせが成立すれば、変わるのはAI産業のサプライチェーンだけでなく、グローバルパワーの重心である。
この盤面での台湾のポジションは?我々は先端プロセスの命脈を握っているが、AI応用面とエネルギー面では主役ではない。この格差こそ、真に懸念すべきことである。
カウントダウン二年目の冷静な観察
あのタイムテーブルに戻ろう。もし2025年が「アシスタント元年」なら、この予測は基本的に実現している——AIは確かに「質問応答ツール」から「タスク実行者」へとアップグレードした。では2026年の「科学研究元年」はどうか?
現状を見ると、AIができることは研究プロセスの加速、文献整理、データ分析の実行である。できないことは、独創的な仮説の提示、実験設計、失敗における方向修正である。つまり、AIは優秀な研究アシスタントになりつつあるが、「研究者」からは本質的な差がまだある。
私個人の判断:2027年の「物理世界」目標は高い確率で延期されるだろう。技術が不足しているのではなく、信頼が不足している。AIが物理世界——工場、医療、交通——を操作し始めるとき、許容できる誤差はゼロに近く、現在の信頼性はこの基準を支えるには不十分である。
三年カウントダウンが二年目に差し掛かり、楽観より冷静さが重要である。技術は加速しているが、信頼構築に近道はない。
💬 コメント
読み込み中...