私たちが誰かを信頼するのは、その人が昨日も今日も明日も「同じ人」だから——安定した価値観、予測可能な行動パターン、馴染みのある話し方。感情が変化したり話題が切り替わったりしても、「これがその人だ」と認識できる。
大規模言語モデルにはこの特性がない。LLMは本質的に「ステートレスな予測エンジン」であり、毎回の応答は現在のコンテキストに基づいて再生成され、恒常的な自己概念を持たない。会話が長く複雑になるほど、元のパーソナ設定から逸脱し、徐々に「汎用AI」の平均状態にドリフトしていく。
業界ではこの現象を「パーソナリティのエントロピー増大」と呼ぶ人もいる。しかし問題の本質は物理法則ではなく、設計の欠如である——パーソナリティの一貫性は、解決すべき工学的問題として扱われてこなかったのだ。
ユーザーの体験は:
「最初は個性があったのに、長く話すと平凡になって、カスタマーサポートと話しているようになる。」
「『お前はXXXだ』といつもリマインドしないと忘れてしまう。」
「昨日は私たちの暗黙の了解を覚えていたのに、今日はまた見知らぬ人のようだ。」
問題の根源は記憶ではない。現在のモデルはコンテキストを覚え、会話履歴を振り返ることができる。しかし「あなたが言ったことを覚えている」ことは「自分が誰かを知っている」こととは異なる。
記憶が解決するのは情報であり、パーソナリティが解決するのはアイデンティティである。
安定したアイデンティティがなければ、信頼は築けない。
Fine-tuning
最も直感的な解決策はモデルの微調整——大量の会話データで、特定のパーソナリティをモデルの重みに「トレーニング」することだ。
問題は:
企業には可能かもしれないが、個人や小規模チームにはハードルが高すぎる。