#%E8%81%8A%E5%A4%A9%E6%A8%A1%E5%9E%8B

GripNewsGripNews
2024-05-29

🌖 訓練不同於聊天:ChatGPT和其他LLM不會記住你說的一切
➤ 聊天模型的訓練和記憶方式常常被誤解
simonwillison.net/2024/May/29/
ChatGPT和其他類似工具並不會直接從你對它們說的話中學習並記憶下來。它們是無狀態的函數,每次開始新的聊天對話時,模型都會被重置,忘記之前的對話細節。因此,將信息傳遞給模型以提高其未來對話的知識是無意義的。此外,模型的輸入上下文長度也很重要,超過上下文長度的對話部分將被遺忘。聊天模型的「記憶」功能只是一個提示技巧,並非模型真正記憶和學習的能力。
+ 這篇文章解釋了聊天模型如何訓練和記憶,很有幫助。
+ 對於對話模型的誤解,我終於有了更清晰的理解。非常感謝!

GripNewsGripNews
2023-12-02

🌘 Chatbot UI新的聊天模型Default (OpenChat Aura)查閱帳戶用量系統提示
➤ 調整Chatbot UI的溫度值可控制回應的隨機性和確定性
openchat.team/
Chatbot UI是一個高級聊天機器人工具包,旨在模仿OpenAI聊天模型ChatGPT的界面和功能。生成溫度值可以調整聊天機器人的回應隨機性和確定性。溫度值為0.8時回應較隨機,而溫度值為0.2時回應較聚焦和確定。溫度值0.5則為保守中立隨性。
+ 這個新的聊天模型聽起來非常有趣!可以根據需求調整回應的隨機性和確定性,這對於開發聊天機器人應用來說非常實用。
+ 希望這個新的聊天模型能夠提供更多的自定義選項,例如回應風格或情感色彩的調整,這樣使用者可以根據不同的場景和目的來設定聊天機器人的表現。
UI Aura

GripNewsGripNews
2023-07-06

🌗 GitHub - InternLM/InternLM: InternLM已開源了一個70億參數的基礎模型,這是一個針對實際情境和訓練系統的聊天模型。
➤ InternLM-7B性能評估、模型庫和從Transformers導入
github.com/InternLM/InternLM
InternLM已開源了一個70億參數的基礎模型,這是一個針對實際情境和訓練系統的聊天模型。
+ 這個開源的聊天模型看起來很有潛力,我想試試看。
+ 這個70億參數的模型聽起來很強大,我很期待它的性能。

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst