🌖 訓練不同於聊天:ChatGPT和其他LLM不會記住你說的一切
➤ 聊天模型的訓練和記憶方式常常被誤解
✤ https://simonwillison.net/2024/May/29/training-not-chatting/
ChatGPT和其他類似工具並不會直接從你對它們說的話中學習並記憶下來。它們是無狀態的函數,每次開始新的聊天對話時,模型都會被重置,忘記之前的對話細節。因此,將信息傳遞給模型以提高其未來對話的知識是無意義的。此外,模型的輸入上下文長度也很重要,超過上下文長度的對話部分將被遺忘。聊天模型的「記憶」功能只是一個提示技巧,並非模型真正記憶和學習的能力。
+ 這篇文章解釋了聊天模型如何訓練和記憶,很有幫助。
+ 對於對話模型的誤解,我終於有了更清晰的理解。非常感謝!
#聊天模型 #記憶 #LLM