有一種想像是這樣的:

如果我們能分析所有技術線型,系統就能自動發出買賣訊號。如果我們能分析用戶的年齡與資產,系統就能自動推薦最適合的保險商品。如果我們能蒐集夠多的行為數據,演算法就能預測你下一步會做什麼。

「把決策系統化」——這是過去十幾年來,無數理工背景新創團隊的基本信仰。

但這與其說是邏輯,不如說是宗教。他們是科學教的信徒。

那道填不平的鴻溝

從數據整理到做出決策,不是一條連續的光譜,而是一個帶狀的過程,中間有一道懸崖。

讓我把這個過程拆開來看。數據有三種形態:結構化、半結構化、非結構化。結構化資料就是表格裡的數字——營收、用戶數、轉換率。半結構化是有一定格式但需要解讀的資訊——客戶的回饋郵件、會議紀錄、市場報告。非結構化則是那些飄在空氣中的東西——一個眼神、一句沒說出口的話、一種「感覺這個方向不太對」的直覺。

平台和演算法能完美處理的,基本上只到結構化資料。你給它一張表,它可以幫你排序、篩選、找出異常值、畫出趨勢圖。這很有用,但這離「決策」還遠得很。

因為決策不是資料彙整的總和。決策是一種主觀的思考跳躍。

你看了十份市場報告,數據都指向 A 方向。但你在昨天的飯局上聽到一個業界老前輩隨口提了一句話,讓你隱約覺得 B 方向才對。你無法量化那句話的權重,甚至無法向團隊解釋為什麼你「感覺」B 比較好。但你就是在那個瞬間做了決定。

這個瞬間裡發生的事,演算法看不到,也模擬不了。

科學教的信仰結構

我把過度相信演算法能取代人類決策的態度稱為「科學教」,不是要侮辱理性思維,而是因為它的結構跟宗教信仰有著驚人的相似。

宗教信仰的核心是:有一個超越的存在(上帝、命運、因果法則)可以為你消除不確定性。你只要信,就有答案。

科學教的核心是:有一個超越的系統(大數據、AI、演算法)可以為你消除不確定性。你只要餵夠多數據,就有最佳解。

兩者共同的心理動力是一樣的:逃避決策的痛苦。

做決定是痛苦的。那種當下的模糊、兩可、不確定,是每個人必須單獨面對的重量。職涯的選擇、投資的判斷、感情的取捨——這些都是非結構性的主觀判斷,帶著人性的溫度、偏頗與獨斷。

科學教信徒以為,演算能縮短從半結構到非結構之間的巨大鴻溝。但鴻溝沒有縮短。只是因為他們「相信」,所以覺得問題消失了。

2017 年的警告,2026 年更該聽

我第一次寫下這些想法是在 2017 年。當時 AI 還沒有 ChatGPT 的光環,大數據是最潮的詞彙,每個創業者都在說「data-driven」。

九年後的今天,AI 的能力確實有了質的飛躍。GPT 能寫文章、Claude 能分析合約、各種 AI 代理能自動執行複雜任務。但核心的問題不但沒有消失,反而變得更尖銳了。

因為當 AI 越來越像「可以做決定的東西」時,人就越容易把決策的責任推給它。

我在經營公司的過程中見過太多這樣的情況。團隊用 AI 做了市場分析,AI 說某個市場機會得分最高,於是就決定往那個方向走。沒有人問:「AI 的評分模型是誰設計的?評分的權重合理嗎?有沒有什麼因素是模型看不到的?」這不是 AI 的錯——它忠實地根據你給它的框架產出結果。問題在於人放棄了思考框架本身是否正確的責任。

這跟我在〈後程式碼時代的思考:當品味成為人類的關鍵競爭力〉裡談的品味問題是同一件事。AI 可以在你定義的座標系裡找到最佳解,但定義座標系本身——什麼是「好」、什麼值得追求、什麼風險可以承受——這些始終是人的責任。

資訊平台的真實角色

讓我說清楚:我不是反科技。恰恰相反,我每天都在用 AI。

但我很清楚 AI 在我決策過程中的角色:它是「決策輔助工具」,不是「決策依賴系統」。

這個區分非常重要。

決策輔助的意思是:AI 幫我把結構化資料整理好、把半結構化資訊做初步分類、在我設定的框架下提供選項和分析。然後,我承擔最後那個「跳」的責任。

決策依賴的意思是:AI 告訴我該怎麼做,我照做。如果結果不好,是 AI 的錯。

如果有平台宣稱能協助你做更佳的決策與判斷——用這個功能就能買到更會漲的股票、用那個模型就能選到最適合的員工——這種平台,九年前我說它不是笨蛋就是騙子,今天我的判斷沒有改變。

不是因為技術不行。是因為決策的本質就不是一個最佳化問題。它是一個在不完整資訊下、帶著價值判斷做選擇的過程。你可以有更好的資訊,但你無法消除「選擇」這件事本身的重量。

從神學看決策的痛苦

我在神學訓練中學到一個概念,後來發現它對理解決策非常有幫助:有限性

基督教神學有一個核心前提:人是有限的存在。你的知識有限、視野有限、理解有限。這不是缺點,是存在的基本條件。接受有限性,不是放棄追求更好,而是承認「不可能什麼都知道」這個事實,然後在這個事實的基礎上,做出你能做的最負責任的判斷。

科學教的問題恰恰在於它拒絕接受有限性。它假設只要數據夠多、模型夠好,就可以逼近「全知」。但全知是上帝的屬性,不是人的。把這個屬性投射到演算法上,本質上是一種偶像崇拜——用技術的外衣包裝了對確定性的渴望。

我在〈演算法作為審判者〉裡進一步探討了這個問題:當我們讓演算法來判斷人的價值、分配人的機會,我們到底在信任什麼?

決策的痛苦不會因為有了更好的工具就消失。工具可以讓你看到更多、算得更快、模擬更多情境。但最後那個「我決定了」的瞬間,依然是你一個人的事。

善用 AI 的前提

回到實際面。如果你是一個正在使用 AI 輔助決策的經營者,我建議你把這句話貼在螢幕旁邊:

AI 的輸出品質永遠不會超過你輸入的問題品質。

AI 不會告訴你你問錯了問題。它只會忠實地回答你問的問題,不管那個問題有多離譜。所以你的責任不是學會用 AI,而是學會問對的問題。而問對的問題,需要的是對領域的深度理解、對人性的敏感度、以及承認自己可能搞錯的謙遜。

感謝世界上有那麼多人願意相信演算法可以解決一切。他們的存在,讓那些真正理解決策本質的人,擁有了不可複製的競爭優勢。

因為在一個所有人都有相同 AI 工具的世界裡,差異化的來源只剩下一個:你怎麼用它,以及你敢不敢在 AI 說 A 的時候,因為自己的判斷選擇 B。

沒有平均律。沒有統一的幸福方程式。決策的重量,就是活著的重量。