Đừng mua b60 cho LLM! GPU này 24GB với giá 700€ nhưng thực tế lộn xộn: cần patch nhân tùy chỉnh để ổn định, firmware chỉ cập nhật được trên Windows. Quạt hoạt động ồn ào, tốc độ chỉ 10-15 token/s trên llama.cpp. Intel's llm-scaler chậm (vLLM 0.11.1 vs 0.15), không hỗ trợ nhiều mô hình mới. XFX 7900XTX (24GB, nhanh gấp đôi, giá cao hơn 50€) là lựa chọn tốt hơn. #LLM #AIHardware #b60 #GPUReview #7900XTX
https://www.reddit.com/r/LocalLLaMA/comments/1qsenpy/dont_buy_b60_for_llms/