我每天跟 GPT-4o、Gemini、Grok 協作,讓它們互相辯論、交叉查核。在邏輯分析和結構化思考上,AI 超越人類早就不是新聞。
但去年讀到一篇研究的時候,我還是停下來了。
不是因為 AI 又在某個測驗上贏了人類。而是因為這次它贏的項目是「社會智能」——判斷情緒、讀懂未說出口的話、在社交情境中做出恰當回應。這是我在神學院十五年最核心的訓練之一。牧靈關懷、諮商對話、團體動力——全都建立在這個能力上。
如果 AI 在這個領域也能超越人類專家,那「理解他人」到底是什麼?
研究說了什麼
發表在《心理學前沿》(Frontiers in Psychology)的這項研究,由沙烏地阿拉伯哈立德國王大學團隊設計。他們讓 180 位主修心理諮商的學生(學士與博士兩組)和三個大型語言模型——ChatGPT-4、Microsoft Bing、Google Bard——完成同一份 64 題的社會智能量表,評估「判斷人類行為的準確性」和「社交場合中做出最佳決策的能力」。
結果很殘酷。ChatGPT-4 拿到 59 分,超越 100% 的人類參與者,包括所有博士級專家。Bing 拿到 48 分,超越 90% 的學士生和 50% 的博士生。Bard 拿到 40 分,大約跟學士生持平。
不是接近,是完勝。
讓我不安的不是分數
老實說,分數本身沒有讓我太意外。大型語言模型讀過的心理學文獻、案例分析、諮商對話紀錄,數量遠超過任何一位心理學家一輩子能接觸的。在模式匹配的意義上,它贏了不奇怪。
讓我不安的是另一件事。
我跑辯論引擎的時候,偶爾會遇到 Claude 或 GPT 給出一個回應,精準到讓我覺得「它懂我在想什麼」。不是邏輯上的精準,是語境上的精準——它抓到了我沒明說的前提,回應了我真正在意的點。
那一刻我會想:這是理解,還是統計上的巧合?如果每一次都這麼巧,巧合跟理解的界線在哪裡?
這個問題,跟心理學家被超越的問題是同一個。我們一直把「理解他人」當成人類的專利,但也許我們高估了自己——也許人類的社會智能,本質上也是一種極度精密的模式匹配。只是我們給它取了一個更有溫度的名字:同理心。
心理學家不會失業,但角色會變
這項研究不是在宣告心理學家的末日。跟我在〈從 AI 風暴中突圍〉裡談的邏輯一樣:被取代的不是人,而是舊的分工方式。
AI 可以成為強大的治療輔助者,提供比人類更一致、更不疲勞的情感洞察。心理學家的角色會從「全能的治療者」轉為「協作系統的設計者」——決定什麼時候用 AI 的判斷、什麼時候用人的直覺、什麼時候兩者都不夠而需要沉默。
但這也帶來真實的風險。社會智能測驗是標準化情境,真實的諮商室裡有太多量表抓不到的東西——沉默的重量、眼神的閃躲、語氣裡的裂縫。更危險的是,如果我們開始依賴 AI 做高風險判斷,比如評估自殺風險,模型的一個盲點就可能是一條命。
重新定義「理解」
我在〈寂寞世代的成癮經濟學〉裡談過,人類最核心的需求是被理解。如果 AI 能在社會智能測驗上贏過所有專家,它是否能滿足這個需求?
我的答案是:它能滿足一部分,但那個缺口永遠存在。因為被理解不只是對方說對了什麼,而是你知道對方也會痛。AI 可以精準回應你的情緒,但它不會因為你的故事而失眠。
這不是 AI 的缺陷,而是它的本質。也正因如此,人的角色不是跟 AI 比精準度,而是提供那些精準度無法取代的東西——在場、承擔、共同面對不確定性。
技術正在重新定義理解的邊界。但理解的核心,也許從來不是讀懂對方,而是願意留下來。
💬 留言討論
載入中...