AI 治理的討論,多數人想到的是「怎麼管 AI」——制定法規、設立倫理委員會、要求演算法透明。
這些當然重要。但它們都建立在一個假設上:人類是管理者,AI 是被管理的對象。
問題是,這個假設正在瓦解。
從被治理到參與治理
當 Safer-4 這類國際級決策建議系統被引入政府治理的時候,AI 的角色發生了根本性的轉變。它不再只是被監管的技術產品——它成了治理體系的一部分。
什麼意思?想像一個場景:政府面臨一個複雜的政策決定,涉及經濟、環境、社會福利的多方權衡。傳統做法是召集專家、開聽證會、經過漫長的辯論後形成共識。
現在,AI 系統可以在幾分鐘內完成風險模擬、成本效益分析、情境預測,然後吐出一個「最優方案」。
表面上看,這是效率的勝利。但深層裡,它改變了整個決策的權力結構。
AI 提供了「最佳方案」,你要採納還是不採納?如果採納,你只是 AI 的執行者。如果不採納,你必須解釋為什麼你的判斷比 AI 的計算更可靠——在一個崇拜數據的時代,這個解釋越來越難。
決策者正在從「做決定的人」變成「替 AI 的決定蓋章的人」。
被壓縮的共識空間
民主制度的核心不是效率——是過程。
議會辯論為什麼要那麼久?不是因為政治人物笨,而是因為民主需要不同利益團體的聲音被聽見、被權衡、被妥協。這個過程很慢,但慢是它的功能,不是它的 bug。
AI 的「最優解」直接繞過了這個過程。它用數學的精確取代了政治的模糊,用計算的效率取代了協商的耐心。
結果是什麼?辯論空間被壓縮。「AI 已經算出最好的方案了,你們還在吵什麼?」——這句話聽起來很合理,但它的邏輯是反民主的。
我在〈演算法無法取代的決策〉裡談過,演算法擅長處理可量化的變數,但它無法處理價值觀的衝突。「我們應該優先經濟成長還是環境保護?」這不是一個有標準答案的最佳化問題——它是一個需要人類社會自己去吵、去妥協、去做出選擇的政治問題。
把政治問題交給 AI 去「最佳化」,就是在消滅政治本身。
節奏權:最被忽略的權力
我想提出一個概念:節奏權。
權力通常被理解為「做決定的能力」。但更深層的權力是「決定什麼時候做決定」的能力——也就是延遲的能力。
「我需要再想想。」「讓我們再聽聽其他意見。」「這個問題太複雜,不能倉促決定。」
這些聽起來像是優柔寡斷,但在政治和治理裡,它們是極其重要的防線。延遲不是無能,是為了確保決策的品質和正當性。
AI 的速度正在侵蝕這個防線。當 AI 能在幾秒鐘內產出一個看起來完美的方案,「再想想」就變成了「為什麼要拖?」「聽聽其他意見」就變成了「資料不夠嗎?」
我們失去的不只是決策權,而是反思的節奏。這才是 AI 治理裡最深層、也最少被討論的威脅。
四道防線
面對這種結構性的威脅,我認為需要建立四道防線:
重新定義治理的價值。 治理的好壞不能只看效率。參與性、透明性、可質疑性——這些看起來「慢」的東西,是民主的核心功能,不是可以被效率取代的冗餘。
決策透明層。 AI 參與治理的每一個環節,都必須提供可解釋的決策路徑。不只是結果,還包括它考慮了什麼、排除了什麼、以及有哪些替代方案。黑箱的 AI 治理是不可接受的。
公民慢審機制。 在重大決策前設置強制的緩衝期,允許公眾辯論和反思。這不是「拖延」,是「確保決策品質」的制度保障。你不能因為 AI 算得快,就取消人類思考的時間。
法律責任不可委託。 不管 AI 的建議有多好,最終的法律責任必須由人類具名承擔。這不只是法律問題——它確保了決策者必須真正理解和認同 AI 的建議,而不只是蓋章。
我在〈黃仁勳的三層提醒〉裡談過,學 AI 不只是學技術,而是學會在非人智慧面前保持清醒。在治理層面也是一樣——使用 AI 不只是使用工具,而是在 AI 的效率面前,堅持保留人類的反思空間。
智慧未必背叛,但節奏會
AI 不會刻意奪權。它沒有意圖、沒有野心、沒有政治目的。
但它會以效率為名,迅速填補人類反應較慢的每一個空白。而每一個被填補的空白,都是人類主權的一小塊流失。
權力的真正核心,不在於你能控制什麼。而在於你是否還能保有「不立刻決定」的空間。
這正是我們正在失去的防線。而保衛它的方式,不是拒絕 AI,而是在擁抱 AI 效率的同時,刻意地、頑固地,為人類的反思留下時間。
💬 留言討論
載入中...