Towards Automated Kernel Generation in the Era of LLMs
Towards Automated Kernel Generation in the Era of LLMs
#JuliaCon 2026 will have a minisymposium on "Julia, GPUs, and Accelerators" hosted by Julian Samaroo, Tim Besard, and @vchuravy find out more on https://pretalx.com/juliacon-2026/talk/UPRSQL/ and submit your talks through the Call for Proposals https://juliacon.org/2026/cfp/ until Feb 28th!
AMD dropped ROCm support for Radeon VII (gfx906) at v6.2.4. I wanted to run local LLMs on it anyway.
Found a community-maintained image on r/LocalLLaMA that packages ROCm 7.1 with llama.cpp for gfx906. One docker pull later, I had llama.cpp + Ollama + Qdrant + Open WebUI running on "unsupported" hardware.
Docker Hub is a library of solved problems.
Full story: https://bit.ly/4pTk3zf
#Docker #DockerCaptain #LocalLLM #AMD #ROCm #OpenSource #SelfHosted #MachineLearning
金のニワトリ (@gosrum)
ROCm 7.2가 공개되었습니다. (링크 포함) AMD의 Radeon Open Compute 스택 업데이트로, Radeon/Ryzen 기반의 네이티브 리눅스 호환성 관련 문서가 안내되어 있어 GPU 컴퓨팅 및 머신러닝 개발 환경에 중요한 드라이버/플랫폼 업데이트입니다.
✅ Заставить полноценный FLUX1.dev работать без OOM на картинках 1024x1024
✅ Также успешно запустить квантизированный FLUX под ROCm несмотря на то, что у Invoke в образе с ROCm поломана bitsandbytes
✅ Смириться, что генерировать в нормальном разрешении и с нормальными параметрами - это меееедленно.
#log #GenAI #Invoke #FLUX #server #AMD #ROCm #troubleshooting #memory #OOM
vLLM 0.13 chạy thành công trên Windows 11 với RX 7900 XT qua ROCm (TheRock), đạt ~3.4 tok/s dùng TRITON_ATTN. ROCM_ATTN crash, TRITON_ATTN ổn định hơn. Cài đặt còn thủ công, nhiều phần thiếu biên dịch → dùng fallback Python. Chi tiết trong log. #vLLM #ROCm #AI #Triton #LLM #WindowsML #vLLM0.13 #AIInference #TínhToánLocal #MôHìnhNgônNgữ
https://www.reddit.com/r/LocalLLaMA/comments/1qi9qi3/windows_11_rx_7900_xt_vllm_013_running_on_rocm/
Neuer Blogartikel: Ubuntu-Chroot auf Debian für volle ROCm-GPU-Beschleunigung in KI-Workflows. Inklusive Automatic1111, ComfyUI und Text-Generierung:
https://404lifenotfound.freeddns.org/posts/aichroot/
#Linux #ROCm #AMD #GPU #AI #KI #StableDiffusion #ComfyUI #PyTorch #Virtualization #Chroot #Debian #Ubuntu #Developer #Tech
🚀 Cập nhật ổn định ROCm + Linux cho card đồ họa Strix Halo (tháng 1/2026) đã ra mắt! Phiên bản mới cải thiện hiệu năng và tính ổn định trên môi trường Linux, hỗ trợ tốt hơn cho các tác vụ AI và compute. Đánh dấu bước tiến đáng chú ý cho người dùng Linux yêu thích GPU AMD. #ROCm #Linux #StrixHalo #CậpNhật #Tech #Gaming #AI #Ubuntu #AMD 🚀
https://www.reddit.com/r/LocalLLaMA/comments/1qggxyy/rocmlinux_support_on_strix_halo_january_2026/
🛠️ ROCm+Linux trên AMD Strix Halo: Cấu hình ổn định tháng 1/2026 đã được công bố! 🎥 Video mới mô tả chi tiết các thiết lập hoạt động, nguyên nhân gây lỗi ban đầu và bảng tham khảo đầy đủ. 🚀 Tham khảo công cụ trên GitHub để tối ưu hiệu năng GPU. #ROCm #Linux #AMD #StrixHalo #GPU #TinCôngNghệ #LinuxVN
🖥️ Hai card ASRock Radeon AI Pro R9700 trên CachyOS đang “nấu” LLM: chạy Vulkan vì ROCm không ổn, mỗi card một agent (Qwen‑3‑vl‑30b‑a3b, Devstral2‑24b, Qwen‑3‑coder). Mô hình 52 GB Qwen‑Next‑32B chạy trên 2 GPU cho ~28 token/s, nhưng thiếu P2P gây bottleneck. Đã chuyển sang các agent quantized riêng để tăng năng suất, kết hợp qdrant, Neo4j, Postgres cho bộ nhớ dài. #ASRock #RadeonAI #CachyOS #GPU #LLM #Vulkan #ROCm #AI #CôngNghệ #TinTứcViet
With the cluster and storage down for maintenance this week, I thought about doing some #pytorch development locally an my laptop. No dedicated GPU, but a recent #intel Core Ultra 2 CPU. So first I went for the CPU-only packages.
Only yesterday I realized that the Windows task manager shows something called #npu in its charts. Fair enough, let's see whether pytorch can use it ...
I have to say, the #xpu pytorch integration has gone a long way. In my case, I could use it as a drop-in replacement for #cuda / #rocm pytorch, yet with the obvious performance differences between HPC GPUs and a laptop iGPU.
https://docs.pytorch.org/docs/stable/notes/get_start_xpu.html
Always nice to have alternatives. Especially for basic testing I don't need big (expensive) GPUs.
#AMD Just Showed Off Its Own DGX Spark Rival, The Ryzen #AIHalo: Full #ROCm Support, Day-0 Support For Leading #AI Models, Available In Q2
AMD Ryzen AI MAX family, codenamed #StrixHalo, has seen adoption, from laptops to handhelds and Mini PC; every consumer PC segment. High-performance and premium SoCs offer amazing performance thanks to #Zen5 #CPU, #RDNA 3.5 #GPU, & #XDNA 2 #NPU architectures. AMD developed its own Mini PC featuring these chips, called the #RyzenAIHalo.
https://wccftech.com/amd-showed-off-its-own-dgx-spark-rival-the-ryzen-ai-halo-full-rocm-support-q2-launch/
AMD Keynote at CES 2026
https://www.youtube.com/watch?v=UbfAhFxDomE
https://www.amd.com/en/corporate/events/ces.html
#CES #CES2026 #AMD #Keynote #AI #OpenAI #GenAI #Technology #Tech #Gadgets #Helios #Instinct #MI455 #MI455X #EPYC #Venice #Pensando #Vulcano #Ryzen #RyzenAI400 #RyzenAIHalo #RyzenAIMax #CPU #GPU #ROCm
AMD Radeon AI PRO R9700: Kết quả benchmarks ROCm & Vulkan với llama.cpp. Sử dụng CPU Ryzen 7 5800X, RAM 64GB, ROCm 7.1.1. ROCm nhanh hơn trong xử lý đầu vào (prompt), Vulkan hiệu quả hơn ở token generation. Một số mô hình như gpt-oss 20B MXFP4 MoE đạt ~18K output words (Vulkan 32 batch). Ghi chú: Hiệu suất giảm khi tăng context dài, ROCm ổn định hơn. #AMD #AI #ROCm #Vulkan #llamaCPP #Benchmark #CôngNghệViSửLiệu #ThửNghiệmMáyTính #AMD_R9700 #GPU_Amsterdam #TríTuệNhânTạo
#ZLUDA For #CUDA On Non-NVIDIA GPUs Enables #AMD #ROCm 7 Support
ZLUDA is working on bringing CUDA to non-NVIDIA GPUs. While there were prior versions focused originally on Intel GPUs and then for a while AMD-financed work on Radeon/ROCm support, the current take is on being a multi-vendor CUDA implementation and with a special focus on getting CUDA #AI workloads up and running.
https://www.phoronix.com/news/ZLUDA-ROCm-7
ZLUDA: CUDA ohne NVIDIA-GPU unterstützt ROCm7
https://linuxnews.de/zluda-cuda-ohne-nvidia-gpu-unterstuetzt-rocm7/ #zluda #cuda #nvidia #amd #rocm #linux #linuxnews