#RTX6000

2026-02-01

Cần hỗ trợ chạy mô hình GLM‑4.5 Air trên 2 GPU RTX Pro 6000 (Linux Fedora 43). Đã thử llama‑cpp, vLLM, ik_llama, sglang… vLLM chạy nhanh (~90 token/s) nhưng gặp vấn đề tool apply_diff; các công cụ khác chậm hoặc không khởi động. Ai có cấu hình thành công, hướng dẫn chi tiết, chia sẻ script? #AI #LLM #GLM #RTX6000 #Linux #vLLM #LlamaCPP #TríTuệNhânTạo #HọcMáy

reddit.com/r/LocalLLaMA/commen

cedric (@cedric_chee)

로컬에서 Kimi K2.5 모델의 INT4 양자화(quant)를 사용해 8대의 RTX Pro 6000 GPU(8x)로 추론을 수행한 결과를 공유한 트윗입니다. 처리량은 8–40 TPS 범위였고, 고전적 추론 문제(아버지-외과의사 수수께끼)와 단어 세기 과제를 모두 정답으로 풀었으며 각각 약 58초·55초의 사고 시간을 기록했습니다. 로컬 INT4 양자화 성능과 추론 지연/처리량 정보가 핵심입니다.

x.com/cedric_chee/status/20168

#kimi #int4 #quantization #localinference #rtx6000

2026-01-27

Một workstation chạy AI cực khủng vừa được giới thiệu với cấu hình 4 card đồ họa RTX 6000 Ada Lovelace, lắp đặt trong khung máy tùy chỉnh (custom frame). Đây là giải pháp phần cứng mạnh mẽ cho các tác vụ tính toán nặng và chạy mô hình ngôn ngữ lớn (LLM) tại địa phương. Với lượng VRAM khổng lồ, hệ thống này tối ưu hóa khả năng xử lý song song và đào tạo mô hình AI chuyên sâu.

#AI #Hardware #Workstation #RTX6000 #LocalLLM #DeepLearning #CongNghe #PhanCung #MayTinh

reddit.com/r/LocalL

2026-01-22

Đang lên kế hoạch xây dựng workstation với RTX 6000 (96 GB) và RAM DDR5‑6000 96 GB. Cân nhắc giữa phiên bản Pro và Max‑Q: Max‑Q tiết kiệm 300 W, nhỏ gọn hơn nhưng có tiếng rít? Lo ngại RAM đủ để khai thác VRAM, và tìm nhà lắp đặt tại EU (DE, BE, NL, FR). Ai có kinh nghiệm hoặc đề xuất nhà cung cấp, chia sẻ nhé! #Hardware #PCBuild #RTX6000 #MaxQ #RAM #CôngNghệ

reddit.com/r/LocalLLaMA/commen

𝗭𝗲𝗻 𝗠𝗮𝗴𝗻𝗲𝘁𝘀 (@ZenMagnets)

한 사용자가 Llama 3.1 8b로 RTX 6000 Pro에서 DGX Spark보다 6.7배 빠른 성능을 달성했다고 보고했습니다(링크 포함). 또한 vllm_benchmark_suitev2를 이용해 qwen3-8b-q4 등 모델을 벤치마크해볼 것을 권장합니다.

x.com/ZenMagnets/status/201367

#rtx6000 #dgx #llama #vllm #qwen

2025-12-29

Đánh giá tốc độ MiniMax M2.1 (IQ2_M) trên RTX PRO 6000:
- Tốc độ xử lý prompt trung bình: 668.78 token/giây.
- Tốc độ tạo token trung bình: 47.97 token/giây.
- Kết luận: Context càng lớn, tốc độ xử lý càng chậm.

#LLM #AI #GPU #RTX6000 #MiniMaxM21 #TríTuệNhânTạo #HiệuNăng

reddit.com/r/LocalLLaMA/commen

2025-10-19

"đang xây dựng máy tính RTX 6000 / 7985WX. Cấu hình: CPU 64 nhân, RAM 64GB DDR5, SSD NVMe 7.68TB, GPU RTX 6000. Thỏa tin cần建议 về mạng 25GbE và thêm SSD. #BuildAdvice #RTX6000 #VietnameseTech #ComputerComponents"

reddit.com/r/LocalLLaMA/commen

2025-10-19

**Título: Build Dominador - RTX 6000 / 7985WX**
**Nội Đóng:**
Lập Trình: CPU Ryzen 7985WX (64C/128T), RTX Pro 6000 Blackwell (96GB GDDR7), Lưu Trữ: 2TB NVMe + 7.68TB U.3 + 20TB SATA. Mạng: 2x 10GbE + 25GbE (lưu trữ ẩm thực). Đào phách: AIOLIVE, 64GB DDR5.
**TТеги:** #TechBuild #RTX6000 #LậpTrìnhSàn #NVIDIA #Ryzen

(498 ký tự)

reddit.com/r/LocalLLaMA/commen

2025-09-21

Mua 2 RTX 6000 Blackwell Pro (~20k USD) có thể ghi sổ thuế, dùng cho RAG, ML object detection, ML Ops, và phát triển game Unreal/Unity. Lợi ích: tốc độ đồ họa cao, không phụ thuộc cloud, giảm chi phí truy cập GPU. Nhược điểm: công tắc, điện, giá GPU di chuyển. Bạn sẽ làm gì với 20k? #RTX6000 #BlackwellPro #AI #ML #GameDev #GPU #HạTầng #ĐồHọa

reddit.com/r/LocalLLaMA/commen

Benjamin Carr, Ph.D. 👨🏻‍💻🧬BenjaminHCCarr@hachyderm.io
2024-10-16

#NVIDIA #RTX6000 Ada Generation vs. Radeon PRO Performance On #Ubuntu #Linux 24.04 LTS Review
NVIDIA RTX 6000 Ada Generation led in raw performance and performance-per-Watt across multiple benchmarks.
This comparison on Ubuntu 24.04 shows RTX 6000 Ada delivering incredible performance and typically far outpacing AMD Radeon PRO W7900 series workstation graphics cards. The RTX 6000 Ada Generation is very impressive workstation graphics card but will set you back $6~7k USD.
phoronix.com/review/nvidia-rtx

Новини Українськоюrss_ukr_news
2024-06-03
Новини Українськоюrss_ukr_news
2024-05-10

NVIDIA RTX 6000: графічні процесори R100 Rubin підуть у масове виробництво наприкінці 2025 року itc.ua/ua/novini/nvidia-rtx-60

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst