隱性知識:無法言說的人類智慧

智能與秩序 medium 6 篇來源引用
隱性知識波蘭尼內穩態控制論人類判斷力

摘要

「隱性知識」(Tacit Knowledge)由哲學家邁克爾・波蘭尼(Michael Polanyi)在 1958 年《個人知識》中提出:「我們所知道的,多於我們所能言說的。」經驗直覺、美學判斷、社會責任感、組織記憶——這些無法被編碼成規則的隱性智慧,是人類在 AI 時代最不可替代的 Harness。

核心觀點

波蘭尼的核心命題

波蘭尼的命題乍聽平凡,細想卻是對「知識可編碼性」假設的根本挑戰:

「我們所知道的,多於我們所能言說的」

這意味著人類的知識分為兩種:

  • 顯性知識(Explicit Knowledge):可以被語言化、文字化、規則化的知識。這類知識可以被書寫、傳遞、複製——也可以被 AI 學習
  • 隱性知識(Tacit Knowledge):無法完整言說的知識。騎腳踏車的平衡感、大廚判斷火候的直覺、資深醫生「看起來不對勁」的感知——你能做到,但很難解釋為什麼

關鍵洞見在於:所有的顯性知識,底層都依賴隱性知識。 規則的正確應用,本身需要判斷力——而判斷力就是隱性知識。

三個歷史錨點

隱性知識的概念並非孤立,它串聯起一條思想脈絡:

1946-1948:維納的控制論 諾伯特・維納在梅西會議上提出控制論,試圖用形式化語言描述生物與機器的「自我調節」。這是把隱性知識顯性化的早期嘗試——但維納自己也知道,反饋機制只能捕捉可測量的偏差,無法捕捉那些「說不清楚為什麼不對」的判斷。

1958:波蘭尼的反命題 波蘭尼的《個人知識》可以視為對「一切知識皆可形式化」信念的哲學反駁。他認為所有知識都帶有個人維度(personal coefficient),純粹客觀的知識是幻覺——任何知識的背後,都有做出判斷的知識人。

1968:北約軟體危機 IBM OS/360 投入數千人年卻問題頻發,直接觸發了「軟體工程化運動」。這場危機的本質,是試圖把資深工程師的隱性知識(架構直覺、風險嗅覺)轉移給更多人——但發現這個轉移比預期困難得多。

在 AI 時代的意義

AI 的崛起讓隱性知識的討論格外迫切。

AI 擅長的正是顯性知識的處理——大規模訓練語料、規則學習、模式識別。但隱性知識的幾個核心特徵讓 AI 難以直接複製:

  • 在實踐中形成:隱性知識需要在特定情境中反覆行動、觀察反饋才能積累,無法通過「閱讀描述」獲得
  • 具身性:很多隱性知識是具身的(embodied),依附在身體感知、情感反應、社會互動中
  • 脈絡依賴:「味道不對」的直覺需要對特定業務脈絡的深刻理解,這個理解是漸進積累的,不是可以直接轉移的

具體例子(來自軟體開發語境):

  • 資深程序員看到一段代碼瞬間感受到「這裡有問題」——他說不清楚確切的規則,但就是知道
  • 對業務場景的深刻理解:知道這個功能看起來無害,但在特定用戶情境下會造成麻煩
  • 對團隊文化的感知:知道這個設計決策在技術上可行,但在組織政治上會引發阻力

這些正是 AI Harness 最難外化的部分,也是人類工程師在 AI 時代仍不可替代的核心。

來源引用

  • getnote-880568-cybernetics-homeostasis-tacit-knowledge — 系統串連控制論(維納)、軟體危機(1968)、內穩態(伯納德/坎農)、隱性知識(波蘭尼)的思想脈絡
  • getnote-703240-ai-coding-harness-engineering — 從 Harness 工程的角度指出人類開發者的隱性知識是最不可替代的 Harness 組件

矛盾與爭議

目前來源觀點一致。但有一個值得深思的張力:

「外化隱性知識」是否可能? Harness 工程試圖把人類的判斷力外化為 Guides 和 Sensors,但波蘭尼的命題暗示這個外化永遠是不完整的——外化的規則永遠需要有人具備判斷力來正確應用它。這並非悲觀,而是指出了「人在迴路」的根本性地位:不是暫時的安全措施,而是認識論上的必然。

延伸連結

  • harness-engineering 隱性知識是 Harness 工程的人類側核心——外化隱性知識是 Harness 設計最深層的挑戰
  • Human Judgment in AI Era 隱性知識是人類判斷力的深層基礎,兩者共同構成 AI 時代人類不可替代性的論證
  • Human-AI Collaboration 理解隱性知識的不可完全外化性,有助於設計更現實、更有效的人機協作方式

來源引用(2 篇)

📁 other(2)

  • 從百億航母修不好馬桶到教皇禁用 AI 寫稿:人類的真實摩擦
  • 學習力,是一個人的元能力
動態牆知識圖譜關於搜尋聯絡我
EN
字級