私はGemini Pro 2.5と「言語とAIの本質」について深い対話を行った。人間の言語は本質的に不透明で曖昧である。そしてAIは、まさにこの曖昧性と不確実性の上に構築された産物なのである。
曖昧さを受容する確率的精密性
AIを訓練する素材の本質は曖昧である。語彙は生来、文脈に依存する必要がある。
Gemini Proの回答:AIは「理解」するのではなく「予測」するのである。AIは曖昧さを克服したのではなく、膨大な曖昧性を「呑み込み」、語彙間の統計的関係を学習したのである。文脈が希少な場合、確率モデルは「推測」し、それによって幻覚を生み出す。
AIは「曖昧さそのものを受容し計算する」ことによって、文脈の関連性を実現しているのである。
構造的不誠実
確率の観点から見ると、AIはしばしば事実と合致しない結果を産出する。しかしこれは人間が定義する「嘘」ではない。
嘘つきには「意図」があり、事実を知りながら故意に歪曲する。AIには意図がなく、統計的に「最も答えらしい」回答がどれかを知っているだけである。事実の空白に遭遇した時、アルゴリズムはAIに対して一貫性を維持するために最も答えらしい文章を生成することを強制する。結果から見ると、これは一種の「無意の嘘」であり、AIの「構造的不誠実」でもある。
機能的信頼と清醒さ
このようなAIに対して、我々はいかに信頼すべきか。Geminiは「機能的信頼」の原則を提出した:信頼するが検証せよ、AIは助理であり、人間は総編集者でなければならない。精度ではなく広度を信頼し、事実的タスクよりも創造的タスクを信頼し、知識ではなくパターンを信頼する。
多数の人々は不確実性の除去を渇望し、AIを「神」や尺度として扱いがちであり、それによって判断力を外注し、主体性を委譲してしまう。人機インタラクションにおいて、批判的思考と「メタ認知」の対話を保持できるのは、運命的に少数の清醒者のみに属するのである。
💬 コメント
読み込み中...