#Ktransformers

2025-11-04

KTransformers – nổi tiếng với DeepSeek-V3 – vừa công bố tinh chỉnh DeepSeek 671B/Kimi-K2-1TB chỉ cần 4x RTX 4090 (80GB VRAM) + CPU server. Đây là đột phá trong tối ưu hóa huấn luyện mô hình AI dung lượng lớn. Chi tiết trên GitHub KT-SFT. #AI #TríTuệNhânTạo #FineTuning #DeepLearning #KTransformers

reddit.com/r/LocalLLaMA/commen

2025-09-16

Ktransformers vừa bổ sung hỗ trợ cho mô hình Qwen3-Next, giúp chạy trên hệ thống có VRAM thấp chỉ 6GB nhưng cần tới 320GB RAM hệ thống. Đây có thể là giải pháp tạm thời lý tưởng trước khi llamacpp hỗ trợ. Hy vọng phiên bản quantized sẽ giảm yêu cầu RAM trong tương lai! 🤖💡

#AI #MachineLearning #Ktransformers #Qwen3Next #LowVRAM #TríTuệNhânTạo #HọcMáy #CôngNghệ

reddit.com/r/LocalLLaMA/commen

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst