#LongTermMemory

2026-01-09

🌀 Giới thiệu **Permem** - bộ nhớ dài hạn tự động cho AI, giúp ghi nhớ thông tin người dùng qua các phiên tương tác:
✅ Tự động trích xuật thông tin quan trọng từ hội thoại
✅ Phân loại & ưu tiên dữ liệu theo ngữ cảnh
✅ Không cần code phức tạp - chỉ 2 dòng lệnh tích hợp
✅ Hỗ trợ quản lý bộ nhớ thủ công nếu cần

AI của bạn sẽ nhớ mọi chi tiết như: sở thích, công việc, phong cách giao tiếp... giúp trải nghiệm "như người thật" hơn!

#AI #LongTermMemory #TechInnovation #TríTuệNhânTạo #Công

2026-01-05

Thiết kế bộ nhớ dài hạn cho AI: Vượt xa RAG truyền thống. Kết hợp cấu trúc bộ nhớ dạng file dễ đọc, RAG dựa trên embedding và truy xuất bằng LLM để lý luận sâu hơn. Chúng tôi đang tổ chức sự kiện xây dựng mã nguồn mở từ 8/1, dành cho ai quan tâm đến hệ thống bộ nhớ, điều phối tác nhân và ứng dụng thực tế. Tham gia thảo luận tại cộng đồng Discord. #AIMemory #AgentAI #BộNhớAI #TácNhânAI #LongTermMemory

reddit.com/r/programming/comme

2025-12-06

Google's "Titans" đạt độ chính xác hồi đáp & suy luận 70% trên 10 triệu tokens trong BABILong, nhờ công nghệ MIRAS giúp AI có bộ nhớ dài hạn. Bước tiến lớn trong lĩnh vực trí tuệ nhân tạo!

#AI #Titans #Google #MIRAS #longtermmemory #trituenhantao #bohoai #congnghe

reddit.com/r/singularity/comme

AI Daily Postaidailypost
2025-11-15

Google’s new AI agents now juggle consistency, context, short‑term session history, and long‑term memory. The paper dives into context engineering, the Agent2Agent protocol, LLM‑as‑a‑Judge, and observability tricks that keep agents on track. Curious how these advances reshape autonomous AI? Read on for the full breakdown.

🔗 aidailypost.com/news/google-ai

2025-10-05

Tác giả bức xúc vì AI quên chi tiết trong truyện dài. Anh ấy đã tạo JuicyChat, một bot AI có khả năng ghi nhớ thông tin dài hạn. JuicyChat có thể nhớ vết sẹo nhân vật sau hơn 100 tin nhắn và giữ các nhân vật riêng biệt. Nó dùng tóm tắt và ghim chi tiết quan trọng. Mặc dù bản miễn phí giới hạn, nhưng bộ nhớ là điểm nổi bật. Bạn có từng gặp vấn đề này không?

#AI #Chatbot #JuicyChat #LongTermMemory #Innovation
#TríTuệNhânTạo #BotAI #GhiNhớDàiHạn #SángTạo

reddit.com/r/SideProject/comme

2024-04-23

Orb2, the fly homolog of CPEB, forms #prion-like oligomers involved in maintenance of #LongTermMemory. This study identifies #Hsp40 family chaperone Mrj as a regulator of #Orb2 oligomerization and its association with translating ribosomes #PLOSBiology plos.io/4aRba2j

Victoria Stuart 🇨🇦 🏳️‍⚧️persagen
2023-10-02

In forming long-term memories, vascular cells are crucial
sciencedaily.com/releases/2023

Neuronal activity drives IGF2 expression from pericytes to form long-term memory
cell.com/neuron/fulltext/S0896

#

Victoria Stuart 🇨🇦 🏳️‍⚧️persagen
2023-09-03

[thread] LLM, memorization, long-term memory, forgetting

Recursively Summarizing Enables Long-Term Dialogue Memory in Large Language Models
arxiv.org/abs/2308.15022
Discussion: news.ycombinator.com/item?id=3

* recursively gen. summaries to enhance long-term memory
* LLM memorize small dialogue contexts
* then recursively produce new memories using previous memory + following contexts
* LLM can then generate highly consistent response w. help of latest memory

Title: Recursively Summarizing Enables Long-Term Dialogue Memory in Large Language Models

Figure 1: A long-term conversation example from the Multi-Session Dataset (Xu et al., 2022a). In this dialogue, when the user refers back to previous subjects, even the strong pre-trained language model, i.e. Chat-GPT, generates an inconsistent response.

Source: https://arxiv.org/abs/2308.15022
2023-04-12

Very excited that my first paper with Alessandra Souza and Klaus Oberauer is now published in @PNASNews

We investigated the mechanisms underlying repetition learning as a model system for the interaction between #workingMemory and #longTermMemory. By using a Bayesian hierarchical mixture modeling approach to model learning curves on the individual level, we reveal misconceptions in current theories which resulted from aggregating data over individuals.

pnas.org/doi/full/10.1073/pnas

2023-02-11

"I suffer from #TestAnxiety" is more likely to mean "I mistook my #WorkingMemory for my #LongTermMemory"

#UncommonSenseTeaching

How #sleep shapes what we remember—and what we forget. Researchers are starting to decode the #neural changes during sleep that underlie #LongtermMemory. A PNAS news feature: pnas.org/doi/10.1073/pnas.2220 #neuron #synapse #hippocampus #brain

Over time, as memories get encoded in the cortex, many of those spatial and temporal details fade. What remain are the elements representing the essential core of the memory. Image credit: Dave Cutler.

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst