我們信任一個人,是因為他昨天、今天、明天都是「同一個人」——有穩定的價值觀、可預測的行為模式、熟悉的說話方式。就算他的情緒會變化、話題會切換,我們依然認得出「這就是他」。
大型語言模型沒有這個特質。LLM 本質上是一個「無狀態的預測引擎」,每一次回應都是根據當前的上下文重新生成,沒有恆定的自我概念。對話越長、脈絡越複雜,它就越容易偏離原本設定的人格,逐漸漂向「通用 AI」的平均態。
業界有人稱這個現象為「人格熵增」。但問題的本質不是物理定律,而是設計的缺席——人格一致性,從來沒有被當成一個需要被解決的工程問題。
用戶的體驗是:
「剛開始它很有個性,聊久了就變得平淡、像在跟客服說話。」
「我要一直提醒它『你是 XXX』,不然它就會忘記。」
「它昨天還記得我們的默契,今天又像陌生人一樣。」
問題的根源不是記憶。現在的模型能記住上下文,能回顧對話歷史。但「記得你說過什麼」不等於「知道自己是誰」。
記憶解決的是 資訊;人格解決的是 身份。
沒有穩定的身份,就無法建立信任。
Fine-tuning
最直覺的解法是微調模型——用大量的對話資料,把某種人格「訓練」進模型權重裡。
問題是:
對企業來說這或許可行,對個人或小型團隊來說門檻太高。