1.1 なぜAIは長期的な信頼を築きにくいのか

「一貫性」は信頼を築く基本条件である。

私たちが誰かを信頼するのは、その人が昨日も今日も明日も「同じ人」だから——安定した価値観、予測可能な行動パターン、馴染みのある話し方。感情が変化したり話題が切り替わったりしても、「これがその人だ」と認識できる。

大規模言語モデルにはこの特性がない。LLMは本質的に「ステートレスな予測エンジン」であり、毎回の応答は現在のコンテキストに基づいて再生成され、恒常的な自己概念を持たない。会話が長く複雑になるほど、元のパーソナ設定から逸脱し、徐々に「汎用AI」の平均状態にドリフトしていく。

業界ではこの現象を「パーソナリティのエントロピー増大」と呼ぶ人もいる。しかし問題の本質は物理法則ではなく、設計の欠如である——パーソナリティの一貫性は、解決すべき工学的問題として扱われてこなかったのだ。

ユーザーの体験は:

「最初は個性があったのに、長く話すと平凡になって、カスタマーサポートと話しているようになる。」

「『お前はXXXだ』といつもリマインドしないと忘れてしまう。」

「昨日は私たちの暗黙の了解を覚えていたのに、今日はまた見知らぬ人のようだ。」

問題の根源は記憶ではない。現在のモデルはコンテキストを覚え、会話履歴を振り返ることができる。しかし「あなたが言ったことを覚えている」ことは「自分が誰かを知っている」こととは異なる。

記憶が解決するのは情報であり、パーソナリティが解決するのはアイデンティティである。

安定したアイデンティティがなければ、信頼は築けない。


1.2 既存ソリューションのジレンマ

Fine-tuning

最も直感的な解決策はモデルの微調整——大量の会話データで、特定のパーソナリティをモデルの重みに「トレーニング」することだ。

問題は:

企業には可能かもしれないが、個人や小規模チームにはハードルが高すぎる。