#lowvram

2025-09-16

Ktransformers vừa bổ sung hỗ trợ cho mô hình Qwen3-Next, giúp chạy trên hệ thống có VRAM thấp chỉ 6GB nhưng cần tới 320GB RAM hệ thống. Đây có thể là giải pháp tạm thời lý tưởng trước khi llamacpp hỗ trợ. Hy vọng phiên bản quantized sẽ giảm yêu cầu RAM trong tương lai! 🤖💡

#AI #MachineLearning #Ktransformers #Qwen3Next #LowVRAM #TríTuệNhânTạo #HọcMáy #CôngNghệ

reddit.com/r/LocalLLaMA/commen

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst