#vram

N-gated Hacker Newsngate
2025-12-18

🎩✨ Behold, the spectacle of 1.5 TB VRAM—an indulgence only the unicorns of Cupertino could dream up. casually tosses a $40,000 Mac stack at tech bloggers, who then feign shock at the price while drooling over an acronym party. 🤖💸 Meanwhile, the rest of us are still trying to afford last year's iPhone. 🙃
jeffgeerling.com/blog/2025/15-

2025-12-18

Tối ưu hóa VRAM bằng GPU cũ? Người dùng muốn dùng card RTX 1000/2000 hoặc PCIe 3 để tăng VRAM cho infer AI. Cần tìm card giá rẻ nhất để mở rộng. #VRAM #GPU #AI #Inference #CôngNghệ #LậpTrình

reddit.com/r/LocalLLaMA/commen

ℒӱḏɩę 💾☮∞🎶♲☀🔋Lydie@tech.lgbt
2025-12-16

Dear #AMD: You can save PC #gaming by doing something you've done before. YOU can be the hero. #nVidia doesn't care about #gamers any more, ignore them and do something "new".

Remember the VEGA64, which used #HBM memory for #VRAM? DO THAT AGAIN.

With the big three memory makers shifting to HBM, the solution that seems to make sense is to bring data center stuff to the consumer market, and share that supply chain.

Ramon Marqueznotasrem
2025-12-12

dejaría de suministrar a sus socios de placas de en el 2026

notasrem.com/nvidia-no-suminis

2025-12-11

GPU là cốt lõi cho huấn luyện mô hình ngôn ngữ nhờ xử lý song song và tính toán ma trận nhanh. Bài viết phân tích kiến trúc GPU, phân biệt vs CPU, vai trò của CUDA/Tensor Cores, và quản lý VRAM. Hiệu suất GPU được đo lường bằng FLOPS, quyết định tốc độ huấn luyện. #AI #ML #GPU #MôHìnhNgônNgữ #CôngNghệ #ParallelComputing #DeepLearning #CUDA #VRAM #FLOPS #HiểuGPU #MachineLearningVietNam

reddit.com/r/LocalLLaMA/commen

2025-12-11

Hôm nay khám phá kiến thức về GPU – linh hồn của mô hình ngôn ngữ. GPU xử lý siêu song song, lý tưởng cho matrix multiplication trong ML nhờ hàng nghìn CUDA và Tensor Cores. So sánh CPU (lõi mạnh, xử lý tuần tự) vs GPU (nhiều lõi, song song). VRAM quan trọng để lưu trọng số/activations, thiếu gây lỗi training. FLOPS đo tốc độ tính toán, nhưng phụ thuộc bandwidth và hiệu suất Tensor Cores. Hiểu GPU để tối ưu hiệu quả huấn luyện mô hình!

#AI #ML #GPU #DeepLearning #VRAM #CUDA #TensorCore #FLOPS

2025-12-11

👉 Ai cần giúp tư vấn phần cứng siêu tiết kiệm để chạy cục bộ các mô hình AI (13B-30B) + tạo hình ảnh/video, đồng thời offload 70B trở lên lên cloud? Cần cân nhắc giữa:
- GPU NVIDIA 8GB giá mềm (tương thích cao, VRAM thấp)
- GPU AMD/Intel VRAM cao (giá rẻ VRAM, hỗ trợ kém)
- Máy tính thống nhất (Apple Silicon/Strix Halo, RAM lớn, tùy thuộc vào mô hình)

Mục tiêu: Chạy 13B-30B cục bộ, offload 70B+ lên cloud.

#AI #ML #LLM #VRAM #Cloud #HARDWARE #CôngNghệ #MáyTính #MôHìnhAI

https://www.

2025-12-11

Hỏi mới về VRAM dư: Khi load model 42GB vào card 44GB vs 48GB VRAM, phần VRAM dư giúp tăng hiệu suất và lưu ngữ cảnh. GPU 3090 48GB + Titan RTX 24GB có thể hoạt động nếu phần mềm hỗ trợ. #VRAM #GPU #HọcMáy #AI #TechVietnam

reddit.com/r/LocalLLaMA/commen

2025-12-10

Công cụ htop có thể theo dõi VRAM cho GPU Strix Halo người? Hầu như không có cách nào xác định mức sử dụng VRAM lúc này. #Vulkan #VRAM #htop #GPU #LinuxTool #CôngCụLinux #GPUUtilization

reddit.com/r/LocalLLaMA/commen

2025-12-09

Tính VRAM cần cho mô hình AI: **Memory = (Tham số × Byte mỗi tham số)**. Ví dụ 7B tham số: FP16 cần 14GB, INT8: 7GB, INT4: 3.5GB. Thêm 20% cho context/window. GPU 8-24GB phù hợp mô hình 7B, 40-80GB dùng 13B-34B. #AI #VRAM #MachineLearning #KhoaHocDuLieu #ModelAI

reddit.com/r/LocalLLaMA/commen

2025-12-08

Người dùng hỏi tỷ lệ VRAM/RAM tối ưu cho build AI. Một số gợi ý 1:2 (32GB RAM cho 16GB VRAM). Bạn chọn tỉ lệ nào? 🤖 #AI #Hardware #VRAM #RAM #LocalLLaMA #CôngNghệ

reddit.com/r/LocalLLaMA/commen

ℒӱḏɩę 💾☮∞🎶♲☀🔋Lydie@tech.lgbt
2025-12-04

Maybe software like MagnaRAM makes a comeback? It's basically downloading more #RAM...at the expense of some CPU cycles. I've heard AMD is working on some #VRAM compression system.

This is a screenshot of **MagnaRAM**, a vintage memory management utility running on **Windows 95**.

The image focuses on the "MagnaRAM Details" window, which presents a "before and after" comparison of system memory. Key elements include:

* **Comparison Graphs:** Two tall 3D bar charts compare "Physical" memory (showing 128.0 MB) against "MagnaRAM" memory (showing 133.4 MB).
* **Data Breakdown:** Tables on the left categorize memory into "Compressible" (Free, Used) and "Uncompressible" (Locked, Windows).
* **Performance Claim:** The text highlights a specific **"4.7% Increase in compressible memory"** achieved by the software.
* **UI Context:** The bottom of the screen shows the standard gray Windows taskbar with the "Start" button and the time 8:19 PM.
GNU/Trinukso ۞trinux@masto.ai
2025-12-03

#MangoHUD acaba de añadir un nuevo parámetro: la memoria #VRAM consumida por el proceso; el juego.

Veo, a simple vista, que el sistema operativo me usa alrededor de un giga de VRAM. ¿Eso es normal, no? ¿Se puede reducir? Suelo cerrar el navegador y tal, claro.

@pos_yo

2025-12-03

Intel Arc Pro B60 Battlematrix vừa ra mắt bản xem trước với 192GB VRAM, được thiết kế đặc biệt cho các ứng dụng AI tại chỗ. Đây là bước tiến quan trọng, mang lại hiệu năng mạnh mẽ cho xử lý AI cục bộ!

#Intel #ArcProB60 #VRAM #AI #OnPremiseAI #IntelGPU #AIcucbo #Carddohoa

reddit.com/r/LocalLLaMA/commen

2025-12-01

Làm sao để sử dụng 4GB VRAM cho TTS (Text-to-Speech)?
Người dùng Reddit đang tìm kiếm giải pháp để chạy các mô hình TTS trên card đồ họa có dung lượng VRAM hạn chế. Liệu có những công cụ nào phù hợp?

#VRAM #TTS #AI #LLaMA #TechTips #ThủThuậtCôngNghệ #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

2025-12-01

Người dùng than phiền VRAM Nvidia dùng nhiều hơn AMD khi chạy mô hình ngôn ngữ lớn (LLM). Trước với 40GB VRAM AMD chạy model 37GB tốt. Nay nâng lên 48GB VRAM Nvidia (5090 + 5060 Ti) lại không đủ cho model 37GB, model 19GB dùng tới 28GB VRAM. Bạn có gặp tình trạng này?

#Nvidia #VRAM #LLM #KoboldCpp #AI #AMD #GPU #ThẻĐồHoạ #TríTuệNhânTạo #BộNhớĐồHoạ #GraphicsCard #AIGPU

reddit.com/r/LocalLLaMA/commen

ℒӱḏɩę 💾☮∞🎶♲☀🔋Lydie@tech.lgbt
2025-11-29

The setup for #DRAM and #NAND chip hoarding 😆 No seriously, I want to start hacking more #VRAM onto #GPUs and stuff #hacking

This image displays a highly equipped electronics workbench used for precision repair and soldering.

**The Left Side: Power and Heat**
Dominating the left foreground is a large, bright blue boxy device labeled "YIHUA 862BD+." This is a hot air rework and soldering station with a control panel featuring black knobs and blue LED temperature displays. Attached to its side is a black hot air gun, and a soldering iron sits in a holder nearby. A small jar of brass wire wool (for cleaning the iron tip) sits in front.

**The Center: The Work Area**
The center of the desk is the main focus. A small green circuit board is suspended in mid-air, held by "helping hands", flexible black metal arms with alligator clips. Hovering above the board is a large, circular magnifying lens with a built-in ring light. Behind the board stands a digital microscope with its own small LCD screen showing a live, magnified view of a microchip.

**The Background and Right Side**
A large Samsung monitor fills the upper background. It duplicates the microscope's feed, displaying a massive, grainy close-up of the chip with the text "6RC2D NW702" clearly visible. To the right of the workspace, there are loose components: the exposed glass neck of an old CRT tube standing upright, various green circuit boards with ribbon cables, and a silver computer power supply unit on the far edge.
Raccoon🇺🇸🏳️‍🌈Raccoon@techhub.social
2025-11-29

#HotTake / #speculation:

#Valve is using the #SteamDeck and #SteamMachine to force a tighter baseline on #gaming #computer #hardware and #Linux support. Whatever they produce, pretty much every #VideoGame company has to make their games run passably on it, meaning it has to be optimized enough to run on whatever #GPU they might be shipping in whatever #RAM / #VRAM constraints the system has, and it has to be stable in #Proton.

It's the console that #Steam itself is selling, they don't want people asking "why doesn't this run on standard hardware? Will it not run on my hardware either?"

I think this will be good for the #software market in general, as we've seen massive slippage in basic optimization for very little actual gain.

#ComputerScience #ComputerIndustry

2025-11-28

RTX 5090 mạnh hơn RTX 3090 gấp 3 lần trong Z_Image workflow! Thử nghiệm giới hạn VRAM cho thấy card 8GB vẫn chạy được nếu có đủ RAM hệ thống (32GB+). Để nhanh, nên dùng card 70-class trở lên (12GB+ VRAM). #RTX5090 #VRAM #AI #LocalLLaMA #cardđồhọa #trítuệnhântạo

reddit.com/r/LocalLLaMA/commen

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst