#Cuda

2026-01-30

Куда и почему уходят бабки на нейросети

Малоизвестный среди обычных людей факт: у нейросетей нет никаких "разговоров". Ты смотришь в веб-интерфейсе на "диалог" - но это обман, красивый фокус. Каждый раз, когда ты пишешь новое сообщение, все старые сообщения обрабатываются заново. У нейросетей по-настоящему многоразовых задач не существует. Если результат немного поменялся — тебе просто не покажут в веб-интерфейсе изменившиеся сообщения. Иначе пользователь чувствовал бы себя как в дурке, ИИ его бы постоянно как бы газлайтил, изменяя старые ответы без предупреждения. По факту, история переписки в ИИ-чатах фиксирована, тем или иным способом. И стоило бы это вагон. Интересно. Читать далее

habr.com/ru/companies/bar/arti

#LLM #transformer #attention #KVcache #inference #GPU #CUDA #ChatGPT #Claude #токены

2026-01-29

Tác giả đã phát triển Monolith – ứng dụng Windows kết hợp LLM, Stable Diffusion, và tạo âm thanh trong một giao diện. Yêu cầu: Windows, GPU CUDA, Python 3.10+. Bản alpha, mã nguồn mở MIT. Đánh giá tính năng, hiệu năng & tìm thử nghiệm trên AMD/Mac. GitHub: [github.com/Svnse/monolith](https://github.com/Svnse/monolith)
#AI #MachineLearning #LocalLLaMA #StableDiffusion #ÂmThanh #PhátTriểnPhầnMềm #CUDA #Windows #MởMã #ỨngDụngBảnĐịa #AIHiệnĐại #GiaoDịchĐaNăng

reddit.com/r/LocalLLaMA/c

Ben Burtenshaw (@ben_burtenshaw)

Claude를 이용해 오픈 모델에게 CUDA 커널 작성 같은 어려운 능력을 가르치는 방법을 다룬 블로그 글 요약입니다. 에이전트 스킬(agent skills)을 활용해 강력한 모델(예: Claude Opus 4.5, OpenAI GPT-5.2)을 교사로 삼아 모델 간 하드 캡빌리티(커널 작성 등)를 전수하는 절차를 단계별로 설명합니다. 실무적 모델 전수 기법과 사례를 다룸.

x.com/ben_burtenshaw/status/20

#claude #gpt #cuda #agents #modeltransfer

2026-01-28

DeepSeek OCR 2 hiện hỗ trợ định dạng CPU, MPS và CUDA, cho phép chạy cục bộ trên laptop/Mac. Cập nhật từ Dogacel mở rộng tính linh hoạt của mô hình OCR này. #DeepLearning #OCR #CPU #MPS #CUDA #MachineLearning #HọcMáy #AI #CôngNghệ

reddit.com/r/LocalLLaMA/commen

2026-01-28

Viện Công nghệ Thông tin (LMSYS) đã công bố giải pháp nén mô hình AI 1TB thành 1 H200, nâng cao Hiệu năng AI và tối ưu hóa lưu trữ. Phá vỡ giới hạn phần cứng, mở ra tiềm năng cho mô hình AI lớn hơn.

#AI #machinelearning #GPU #H200 #ViễnThámAI #CNN #GPU #CUDA #AIthếhệtiếp #HiệuSuất #CôngNghệ ThôngTin

reddit.com/r/LocalLLaMA/commen

Knowledge Zonekzoneind@mstdn.social
2026-01-28

#ITByte: #CUDA (Compute Unified Device Architecture) is a parallel computing platform and programming model developed by #NVIDIA.

It enables software developers to use NVIDIA graphics processing units (GPUs) for general-purpose processing.

knowledgezone.co.in/posts/Comp

2026-01-28

Người dùng đang gặp khó khăn khi cài đặt Chatterbox-TTS trên Windows 11 với card đồ họa RTX 5070 Ti (kiến trúc Blackwell). Vấn đề chính nằm ở xung đột phiên bản: kiến trúc mới yêu cầu PyTorch bản cao, trong khi Chatterbox chỉ hỗ trợ các bản cũ hơn. Việc cài đặt trực tiếp qua UV hoặc Pip đang gặp lỗi không nhận diện được CUDA, buộc phải chạy bằng CPU chậm chạp.

#ChatterboxTTS #RTX5070Ti #Blackwell #CUDA #AI #TTS #MachineLearning #CongNghe #PhanMem

reddit.com/r/LocalLLaMA/commen

2026-01-27

Pre-built llama-cpp-python wheel dành cho RTX 5060 (Blackwell/sm_120) với CUDA 13.1 và Python 3.11 đã có! Không cần tự build phức tạp trên Windows. Hỗ trợ GPU offload đầy đủ, tăng tốc prompt eval và token generation. Tải tại GitHub Release: tương thích MSVC 2022, x64.

#llama_cpp_python #RTX5060 #CUDA #LocalLLM #AI #llama_cpp_python #RTX5060 #CUDA #LocalLLM #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

DeepReinforce (@deep_reinforce)

CUDA-L1이 ICLR 2026에 채택되었다는 발표입니다. 본 연구는 CUDA 코드 생성에 강화학습(RL)을 처음 적용한 작업이며, 이후 CUDA-L2 등 후속 작업도 함께 언급했습니다. 연구 커뮤니티의 빠른 발전을 강조하며 추가 결과와 업데이트는 추후 공개될 예정이라는 내용입니다.

x.com/deep_reinforce/status/20

#cudal1 #cuda #reinforcementlearning #iclr2026 #codegeneration

2026-01-26

🚀 Đã backport FP8 cho RTX 3090, không cần H100! Bằng cách bỏ chuyển sang fp16 trong bộ nhớ toàn cục, tiết kiệm VRAM đáng kể, dù hiệu suất tính toán hơi giảm. Đã tích hợp torch extension, bạn có thể thử ngay trong workflow của mình. #AI #MachineLearning #FP8 #RTX3090 #CUDA #DeepLearning #AI_Vietnam #CôngNghệ

reddit.com/r/LocalLLaMA/commen

2026-01-25

Towards Automated Kernel Generation in the Era of LLMs

#CUDA #Triton #ROCm #LLM

hgpu.org/?p=30511

2026-01-25

A Two-Stage GPU Kernel Tuner Combining Semantic Refactoring and Search-Based Optimization

#CUDA #LLM

hgpu.org/?p=30510

2026-01-25

SynPerf: A Hybrid Analytical-ML Framework for GPU Performance Prediction

#Triton #CUDA #Performance #ML

hgpu.org/?p=30509

2026-01-25

Sawtooth Wavefront Reordering: Enhanced CuTile FlashAttention on NVIDIA GB10

#CUDA #Performance

hgpu.org/?p=30508

Valentin Churavy :julia:vchuravy@fosstodon.org
2026-01-25

#JuliaCon 2026 will have a minisymposium on "Julia, GPUs, and Accelerators" hosted by Julian Samaroo, Tim Besard, and @vchuravy find out more on pretalx.com/juliacon-2026/talk and submit your talks through the Call for Proposals juliacon.org/2026/cfp/ until Feb 28th!

#julialang #cuda #rocm #opencl #gpu

The JuliaGPU community has been a strong presence at JuliaCon for many years, and continues to be a strong foundation of Julia's overall computing ecosystem. In 2026, we propose to organize a minisymposium specifically focused on the usage and programming of GPUs (and other accelerators) in Julia. There is some overlap with an HPC minisymposium, however we intend to focus our track on very GPU-specific content or low-level details that make JuliaGPU tick. Additionally, material relating to non-GPU devices (such as TPUs, APUs, IPUs, etc.) are very welcome!
AdwaitXAdwaitx
2026-01-25

🚀 NVIDIA CUDA 13.1 drops major developer productivity update: CUB library now supports single-call API, eliminating duplicate function calls for memory allocation.

✅ Zero performance overhead
✅ PyTorch/TensorFlow-ready


adwaitx.com/nvidia-cub-single-

2026-01-25

Có nên đầu tư DGX Spark để tinh chỉnh mô hình lớn hơn? DGX Spark có đáng để đầu tư cho việc tinh chỉnh mô hình ngôn ngữ lớn hơn không? #DGXSpark #LLM #FineTuning #CUDA #AI #TríTuệNhânTạo #MôHìnhNgônNgữLớn #TinhChỉnhMôHình

reddit.com/r/ollama/comments/1

2026-01-25

NVIDIA không phải là 硬件, mà là 4 triệu nhà phát triển. Doanh thu hàng quý của NVIDIA tăng 94% lên 35,1 tỷ USD. Thị phần giảm, nhưng thị trường tăng trưởng nhanh hơn. 4 triệu nhà phát triển không thể bỏ qua 20 năm công cụ CUDA. #NVIDIA #CUDA #PhátTriển #LậpTrình #Hardware #Software #CôngNghệ #Technologie

reddit.com/r/programming/comme

2026-01-25

NVIDIA không chết như một số lo ngại. Doanh thu quý $35.1 tỷ tăng 94%. Dù thị phần GPU giảm từ 90% xuống 70-80%, nhưng quy mô thị trường AI đang bùng nổ. Cạnh tranh từ Groq, Cerebras có dấu hỏi, còn hàng rào bảo vệ thực sự của NVIDIA là 4 triệu lập trình viên gắn bó với nền tảng CUDA hơn 20 năm. Thách thức lớn nhất lại đến từ Google, Amazon, Microsoft.

#AI #NVIDIA #CUDA #TechNews #AIChip #MarketShare #Developers #Innovation #VietnamTech #StartupVN #TríTuệNhânTạo #CôngNghệSố #ĐổiMớiSángTạo

http

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst