#vram

Serendipityvoyager21stC
2026-03-05

Your Has Hidden : Learn How to Unlock It in 2026 flip.it/9miOaV

2026-03-05

96 ГБ видеопамяти в играх: нужно ли столько VRAM геймерам

Знаете, бывают новости, которые читаешь и немного теряешься — не потому что они сложные сами по себе, а потому что сложно поверить в их абсурдность. Именно такой стала публикация в корпоративном блоге Micron под названием «Новое узкое место производительности: как увеличение объема видеопамяти открывает возможности для гейминга и ИИ-ПК нового поколения». Это та самая Micron, которая в декабре прошлого года объявила о прекращении производства памяти под брендом Crucial . Тогда она честно сказала, что хочет сосредоточиться на поставках памяти для ИИ-серверов и «стратегически важных клиентов». Компания ушла с потребительского рынка — и тут же начала объяснять геймерам, почему им нужно больше памяти. Выглядит абсурдно, не так ли?

habr.com/ru/companies/x-com/ar

#xcom #vram #гейминг #сборка_пк

ℒӱḏɩę 💾☮∞🎶♲☀🔋Lydie@tech.lgbt
2026-03-01

I've had at least 16GB of VRAM on my GPUs since 2017 (Vega64, specifically I had a frontier edition). And 64GB sysram also since 2017 when I built my first flagship Ryzen rig. That rig, btw, is the 3950X system on my second office desk, still humming along.

The fact that system OEMs are now regressing to 8GB of VRAM and even 8GB of sysram is insane. I had more than that in my Athlon64 rig in like 2005.

Even when the bubble finishes popping, I don't see the DIY PC market recovering in any sensible timeframe. Companies will be going out of business rapidly.

I guess slopware writers will have to improve in efficiency! #ram #dram #vram #gpu #ai #memory

Jay Sensei (@hckinz)

러시아 지하 포럼에서 Seedance 2.0 가중치 파일이 유출되었다는 주장이 제기되었습니다. 게시자는 해당 가중치를 96GB VRAM 환경에서 실행할 수 있다고 주장하며 사실 여부는 확인되지 않았습니다. 유출이 사실일 경우 모델 접근성·배포 방식과 커뮤니티 영향에 중요한 변화를 초래할 수 있습니다.

x.com/hckinz/status/2026789245

#seedance #modelleak #weights #vram

MindTGapMindTGap
2026-02-21

35min
HW News - More Valve RAM Shortages, Tariffs Ruling, AI Causes PS6 Delays, Hard Drive Price Hike

Feb 21, 2026

youtube.com/watch?v=0P9WrWAXWwI

MindTGapMindTGap
2026-02-18

Presenting: Inevitable Opportunity to Screw Consumers | GPU Pricing Update

Feb 17, 2026
The pricing situation improved substantially at the end of last year (2025), but as of 2026, it's trending in the wrong direction. In combination with (via ) price spikes and GPU prioritization for builds and accelerators, GPU prices have gone from their recovery curve to instead skyrocket.
youtube.com/watch?v=ueEc_YBXmeY

Charly Coste 🇫🇷Changaco@diaspodon.fr
2026-02-11

I wish using #VRAM as #swap in #Linux was easy and safe. It would be even more useful now that the #AI bubble has caused a surge in the price of #RAM. Many desktop and laptop computers have a discrete #GPU whose dedicated memory is very much underused.

wiki.archlinux.org/title/Swap_

2026-02-02

Давай немного потроттлим

Пока вы апскейлите видео или гоняете LLM, ваш ноутбук может тихо умирать. Ядро GPU показывает комфортные 65°C, а видеопамять в это время жарится на 105°C, ведь заводская логика следит только за ядром. Рассказываю, как я написал утилиту VRAM Guard на Python, чтобы спасти "золотое" железо от деградации с помощью метода импульсного троттлинга. Вот как он работает... Спасти видеопамять

habr.com/ru/articles/991744/

#VRAM #NVIDIA #Python #троттлинг #охлаждение_ноутбука #нейросети #видеопамять #перегрев #Topaz_Video_AI #LibreHardwareMonitor

WinFuture.deWinFuture
2026-01-31

Angeblich plant sein Angebot an zu verschlanken. Für das Q1 2026 sollen 75 % aller GPU-Auslieferungen aus nur 3 Modellen bestehen, die hauptsächlich mit nur 8 GB ausgestattet sind. winfuture.de/news,156534.html?

2026-01-30

NVIDIA Q1 2026 supply pivots hard toward 8GB GeForce

A new report circulating out of China claims NVIDIA has finalized GeForce supply guidance for Q1 2026, and the alleged strategy is a blunt response to rising memory costs: push volume through 8GB models and treat higher-VRAM cards as limited-availability products.

2026-01-30

🔍 Benchmark: Qwen 2.5 7B trên RTX 4070 Super 12GB. FP16 (15.3 GB) phải chuyển sang RAM, tốc độ chỉ 0.7 TPS → giảm 72×. AWQ Int4 (9.9 GB) nằm trong VRAM, đạt 50.9 TPS. Bài học: vượt quá giới hạn VRAM khiến tốc độ sụt giảm mạnh; cần lượng tử (Int4) cho card 12GB. #AI #Benchmark #VRAM #GPU #LLM #Quantization #TríTuệNhânTạo #KiểmĐịnh #MôHìnhNgônNgữ

reddit.com/r/LocalLLaMA/commen

2026-01-29

🚀 Creator của Pinokio (cocktailpeanut) công bố phân tích sâu về cách HeartMuLa Studio tối ưu VRAM. Kết quả: >20 GB → full precision, không swap (~14 GB); 14‑20 GB → 4‑bit, không swap; 10‑14 GB → 4‑bit + swap; 8‑10 GB → 4‑bit + swap (cảnh báo) – thẻ 8 GB hoạt động nhưng tăng ~70 s thời gian do swap. Hệ thống tự động chọn chế độ theo VRAM. #VRAM #Pinokio #AI #MachineLearning #TốiƯuHóa #AIoptimisation

reddit.com/r/LocalLLaMA/commen

2026-01-29

Ollama thiết lập mặc định VRAM quá thấp (4k), gây khó khăn cho người dùng dù mô hình có thể xử lý tới 256k context. Việc thay đổi cài đặt phức tạp và nhiều người sẽ bỏ qua, dẫn đến hiệu suất mô hình yếu. Mac của tôi có 48GB chia sẻ giữa CPU/GPU nhưng Ollama vẫn chưa tự động điều chỉnh hợp lý. #Ollama #AI #MáyHọc #VRAM #HiệuSuấtMôHình

**#Ollama #VRAM #AI #256kContext**
**#Ollama #BộNhớĐồHọa #TríTuệNhiệtNhânTạo**

i.redd.it/dvhk25h286gg1.png

2026-01-28

Tại sao Ollama lại để mặc định VRAM cố định và khó thay đổi? Việc không tự động dò lượng VRAM có sẵn khiến khả năng xử lý của mô hình bị hạn chế (4k thay vì 256k). Nhiều người dùng sẽ bỏ qua cài đặt này, dẫn đến kết quả tệ hại dù hệ thống có 48GB RAM. #AI #MôHình #Ollama #VRAM #TechIssue

i.redd.it/dvhk25h286gg1.png

2026-01-25

GLM 4.7 Flash loại bỏ V trong KV cache, tiết kiệm hàng GB VRAM, xử lý ngữ cảnh dài hơn mà không cần nâng cấp phần cứng. #AI #VRAM #GLM47Flash #TríTuệNhânTạo #TiếtKiệm

github.com/ggml-org/llama.cpp/

2026-01-25

GLM 4.7 Flash loại bỏ V trong KV cache → giảm tiêu thụ VRAM hàng GB, cho phép chạy ngữ cảnh dài hơn trên cùng phần cứng. #AI #MachineLearning #GLM #VRAM #AIVietnam #CôngNghệ

github.com/ggml-org/llama.cpp/

2026-01-21

Thảo luận về hạ tầng tính toán hiệu năng cao (HPC) cho AI và LLM cục bộ (on-prem). Các chuyên gia đang tìm kiếm phản hồi về những rào cản lớn nhất khi vận hành mô hình ngôn ngữ lớn:

- Nút thắt cổ chai hiện tại của bạn là gì?
- Bạn gặp khó khăn do thiếu VRAM, băng thông (throughput), độ trễ (latency) hay điều phối (orchestration)?
- Giải pháp tối ưu hóa nào mang lại hiệu quả vượt trội?

#AI #LLM #HPC #GPU #VRAM #CongNghe #PhanMem #MachineLearning #VietAI

reddit.com/r/LocalLLaMA/comm

WinFuture.deWinFuture
2026-01-18

Angeblich plant , die Produktion der zu drosseln und sich stärker auf die XT-Variante zu konzentrieren. Die setzt die Margen der mit 16 GB wohl zu sehr unter Druck. winfuture.de/news,156248.html?

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst