我做了一個實驗。
準備了一組問題——關於語言的本質、關於 AI 如何「理解」(或不理解)語言、關於真實和謊言的邊界——然後丟給 Google 的 Gemini Pro 2.5。
我的預期是:它會用一堆漂亮的句子閃躲這些尖銳的問題。畢竟,要一個 AI 誠實地談論自己的缺陷,就像要一個業務員誠實地談論自家產品的問題一樣,不太現實。
結果出乎我意料。它不但沒有閃躲,反而用一種近乎冷酷的精確度,解剖了自己。
吞噬模糊的機器
我問它:「你怎麼處理語言的模糊性?」
它的回答讓我停下來想了很久。大意是:人類語言本質上是不透明的。每個詞語的意義都依賴上下文,而上下文永遠在變。AI 不是「克服」了這種模糊——它是「吞噬」了海量的模糊性,從中學到詞語之間的統計關係。
換句話說,AI 不是理解語言。它是把語言當成數據,用機率模型預測「下一個最可能的詞是什麼」。
這個區別非常關鍵。理解意味著掌握意義。預測只是計算可能性。一個能準確預測「我愛你」後面最可能接什麼句子的系統,不代表它理解什麼是「愛」。
Gemini 自己用了一個我覺得很精準的說法:「我不是在語言的海洋裡游泳。我是在統計語言的海浪模式。」
無意圖的說謊
然後我問了一個更尖銳的問題:「你會說謊嗎?」
它的回答讓我想了更久。
它說:從人類的定義來看,說謊需要兩個條件——知道事實是什麼,然後故意說不是。它(AI)不具備這兩個條件。它沒有「知道事實」的能力,因為它只有統計模型。它也沒有「故意」的能力,因為它沒有意圖。
但它承認:從結果來看,它經常產出與事實不符的內容。
這就是所謂的「幻覺」(hallucination)。AI 幻覺不是系統的 bug——它是系統的結構性特徵。
為什麼?因為當 AI 遇到它的訓練資料裡沒有涵蓋的事實空白,它的機率模型不會回答「我不知道」。它會被演算法強迫生成一個「最像答案的答案」——因為使用者提問了,系統必須回應,而回應必須是流暢的、連貫的句子。
所以它會用極有自信的語氣,說出完全不正確的事。不是因為它想騙你。是因為它不知道自己不知道。
我把這叫做「結構性的不誠實」。它不是道德問題,是設計問題。但從使用者的角度,效果跟被騙是一樣的。
權威語氣的陷阱
這裡有一個非常危險的心理機制。
人類天生對「自信的語氣」有信任反射。當一個人用肯定、流暢、沒有猶豫的方式說一件事,我們傾向於相信他。這是演化遺留的本能——在原始社會裡,說話自信的人通常是有經驗的人,聽他們的話有助於生存。
AI 的輸出永遠是自信的。它不會說「呃,我不太確定欸」「這個我可能記錯了」「讓我想想」。它的每一個回答都像一個自信滿滿的專家在做報告。
我在〈敬畏未知的邊界〉裡談過,確信是毒藥。在市場裡,最危險的是那些覺得自己一定對的人。在人機互動裡也一樣——最容易被 AI 誤導的,不是笨人,而是那些忘記質疑 AI 的聰明人。
因為聰明人習慣了「接收資訊、快速判斷、做出決定」的模式。AI 給了他們一個效率驚人的資訊來源。如果他們不刻意提醒自己「這個來源可能是結構性不誠實的」,他們會比任何人都更快地把自己的判斷力外包出去。
功能性的信任
那我們該怎麼跟 AI 互動?
Gemini 在對話中提出了一個我覺得很實用的框架:「功能性的信任」。
意思是:你可以信任 AI,但那是一種有條件的、有範圍的信任。信任它在某些功能上的表現,而不是無條件地信任它的一切輸出。
具體來說:信任但要核實——AI 是你的助理,但你是總編輯。每一個重要的事實性宣稱,都需要你自己去驗證。信任廣度而非精度——AI 擅長的是幫你擴展視野、發現你沒想到的角度。但在需要精確的地方(數據、引述、法律條文),它的可靠度遠低於你的期待。信任模式而非知識——AI 很擅長辨認模式和趨勢,但它不「知道」任何東西。它能告訴你「這些數據呈現的模式看起來像 X」,但它不能告訴你「X 是真的」。
這跟信仰裡的認識論有一個有趣的平行。在神學裡,我們談的是「對超越者的有限認識」——我們可以透過經驗、理性、傳統來接近真理,但永遠不能宣稱完全掌握它。面對 AI 也是類似的姿態——我們可以使用它、從它獲益,但永遠不能把它當成真理的來源。
少數人的清醒
最後想說一個比較悲觀的觀察。
多數人渴望消除不確定性。這是人性。所以當一個系統用自信的語氣、流暢的表達、似乎無所不知的姿態出現在你面前,多數人會很自然地把它當成「答案的來源」,然後停止自己思考。
這不是他們的錯。是人性的預設值。
但在人機互動的時代,這個預設值是危險的。
能在 AI 的便利中保持批判性思維、能在每一次接收 AI 輸出的時候啟動「後設認知」(metacognition)——意識到「我正在接收的可能是錯的」——這種能力不是天生的,需要刻意練習。
而願意做這種練習的人,永遠是少數。
這場跟 Gemini 的對話讓我更確定一件事:AI 時代最稀缺的能力不是「會用 AI」,而是「會懷疑 AI」。前者是技能,後者是素養。
技能可以教。素養只能自己長。
這篇是我與 AI 對話系列的 Gemini 版本。同一組問題,我也丟給了 ChatGPT——它的回應方向完全不同。兩篇並列閱讀,真實在矛盾之間。
💬 留言討論
載入中...