1.1 為什麼 AI 難以建立長期信任

「一致性」是建立信任的基本條件。

我們信任一個人,是因為他昨天、今天、明天都是「同一個人」——有穩定的價值觀、可預測的行為模式、熟悉的說話方式。就算他的情緒會變化、話題會切換,我們依然認得出「這就是他」。

大型語言模型沒有這個特質。LLM 本質上是一個「無狀態的預測引擎」,每一次回應都是根據當前的上下文重新生成,沒有恆定的自我概念。對話越長、脈絡越複雜,它就越容易偏離原本設定的人格,逐漸漂向「通用 AI」的平均態。

業界有人稱這個現象為「人格熵增」。但問題的本質不是物理定律,而是設計的缺席——人格一致性,從來沒有被當成一個需要被解決的工程問題。

用戶的體驗是:

「剛開始它很有個性,聊久了就變得平淡、像在跟客服說話。」

「我要一直提醒它『你是 XXX』,不然它就會忘記。」

「它昨天還記得我們的默契,今天又像陌生人一樣。」

問題的根源不是記憶。現在的模型能記住上下文,能回顧對話歷史。但「記得你說過什麼」不等於「知道自己是誰」。

記憶解決的是 資訊;人格解決的是 身份

沒有穩定的身份,就無法建立信任。


1.2 現有方案的困境

Fine-tuning

最直覺的解法是微調模型——用大量的對話資料,把某種人格「訓練」進模型權重裡。

問題是:

對企業來說這或許可行,對個人或小型團隊來說門檻太高。