我与 Gemini Pro 2.5 进行了一场关于「语言与 AI 本质」的深刻对话。人类的语言本质上是不透明且模糊的。而 AI,正是建立在这种模糊性与不确定性之上的产物。

拥抱模糊的概率精准

训练 AI 的材料本质是含糊的。词语天生需要依赖上下文。

Gemini Pro 回应:AI 不是「理解」,而是「预测」。AI 不是克服了模糊,而是「吞噬」了海量的模糊性,学到词语之间的统计关系。当上下文稀少时,概率模型就会「猜」,从而产生幻觉。

AI 是透过「拥抱并计算含糊本身」,来实现上下文的关联性。

结构性的不诚实

从概率的角度来看,AI 常常产出与事实不符的结果。但这并非人类定义的「说谎」。

说谎者有「意图」,知道事实却故意扭曲。AI 没有意图,只知道哪种回应在统计上「最像答案」。当遇到事实空白时,算法会强迫 AI 生成最像答案的句子来维持连贯性。从结果看,这是一种「无意的说谎」,也是 AI 的「结构性不诚实」。

功能性的信任与清醒

面对这样的 AI,我们该如何信任?Gemini 提出了「功能性的信任」原则:信任但要核实,AI 是助理,人类必须是总编辑。信任广度而非精度,信任创造性任务甚于事实性任务,信任模式而非知识。

多数人渴望消除不确定性,容易将 AI 当作「神」或尺度,从而外包了判断力,让渡了主体性。在人机互动中,能保持批判性思维与「后设认知」的对话,注定只属于少数的清醒者。