#gpu

2026-01-28

FASHN VTON v1.5 ra mắt: mô hình thử đồ ảo mã nguồn mở (Apache-2.0), hiệu suất cao, chỉ cần GPU tiêu dùng (~8GB VRAM). Với ~1 tỷ tham số, mô hình tạo hình ảnh chân thực chỉ trong ~5 giây. Hoạt động trên không gian pixel, không cần mask, phù hợp nghiên cứu và thương mại. GitHub: fashn-AI/fashn-vton-1.5 #VirtualTryOn #OpenSource #AI #FASHNVTON #ThửĐồẢo #MởNguồn #AI #CôngNghệ #Apache2 #GPU #MachineLearning

reddit.com/r/LocalLLaMA/commen

2026-01-28

Viện Công nghệ Thông tin (LMSYS) đã công bố giải pháp nén mô hình AI 1TB thành 1 H200, nâng cao Hiệu năng AI và tối ưu hóa lưu trữ. Phá vỡ giới hạn phần cứng, mở ra tiềm năng cho mô hình AI lớn hơn.

#AI #machinelearning #GPU #H200 #ViễnThámAI #CNN #GPU #CUDA #AIthếhệtiếp #HiệuSuất #CôngNghệ ThôngTin

reddit.com/r/LocalLLaMA/commen

2026-01-28

Шум как hardware: почему Normal Computing строит компьютеры, которые работают на тепловых флуктуациях

В этом году ученые раскопали термодинамический способ ИИ-генерации, который может быть экономнее классических методов в 10 млрд раз. Теоретически, это значит, что подписка на Midjourney могла бы стоить дешевле чашки кофе. К сожалению, рассказать как это всё работает без предыстории невозможно — там присутствует тяжелая математика и физика, читать которую без "человеческих" объяснений невозможно. Именно этой базе и посвящена эта статья. В апреле 2025 года в Nature Communications вышла статья про устройство, которое считает на шуме. Не вопреки шуму, а прямо на шуме. Звучит как оксюморон. Полвека инженеры боролись с тепловыми флуктуациями в электронике: криогенные температуры, экранирование, фильтрация — всё ради того, чтобы сигнал не тонул в случайных колебаниях. Майнинг-фермы греются и шумят, но шум этот бесполезен, это просто тупые потери. А тут приходят ребята из нью-йоркского стартапа Normal Computing и говорят: давайте тепловой шум не глушить, а использовать. Пусть физика считает за нас. И что характерно — у них работает. Интересно. Читать далее

habr.com/ru/companies/bar/arti

#термодинамические_вычисления #аналоговые_вычисления #байесовские_нейросети #GPU #линейная_алгебра #сэмплирование #probabilistic_AI #hardware #NVIDIA #Nature_Communications

2026-01-28

"Mô hình nào đang là lựa chọn hàng đầu để chạy trên GPU 5090 hiện nay? Cộng đồng đang thảo luận hiệu năng & giá trị tối đa hóa cho card này trong diễn đàn LLaMA. #AI #MachineLearning #NVIDIA5090 #TríTuệNhânTạo #GPU"

reddit.com/r/LocalLLaMA/commen

2026-01-28

#TechRadar 'The current situation is extremely serious' — Zotac warns that graphics card makers could be wiped out by memory crisis techrad.ar/L8NF #ComputingComponents #Computing #GPU

2026-01-28

**GPU Nvidia gặp sự cố khi dùng FFmpeg? Cần cộng đồng hỗ trợ!**
Người dùng báo cáo GPU RTX 3060 bị crash khi chạy container dùng FFmpeg (Frigate, ErsatzTV) trên Ubuntu 24.04.3, dù container khác như Plex hoạt động bình thường. Đã thử nhiều driver nhưng vấn đề không giải quyết. Xin chỉ dẫn chẩn đoán hoặc kinh nghiệm xử lý tình trạng này!

#Nvidia #FFmpeg #Ubuntu #Troubleshooting #GPU #selfhosted #CôngNghệ #Linux

(MAX 500 chars)

reddit.com/r/selfhosted/commen

2026-01-28

Here's an update to my #microblog of my latest Linux Mint install.

Today I discovered that I did not have the correct NVidia GPU drivers setup to run a local Stable Diffusion model. (Don't ask me about SD, I just have a new-to-me old GPU begging for interesting code to try.)

I resolved my driver issue with the following steps:

+ I pressed the Windows key on my keyboard.
+ I typed in the word 'drivers' and the clicked on the one suggested menu item that matched my search.
+ A setting panel appeared and informed me that I had four driver options for my NVidia graphics card.
+ Of the four options, one had the word "recommended" beside it. It was not the selected one.
+ So I clicked on the "recommended" one.
+ I closed the window.
+ A new window informed me that I would need to reboot to apply the the change.
+ I rebooted, and found that Stable Diffusion can now see my GPU.

#linux #linuxmint #nvidia #gpu #drivers

2026-01-28

Nghiên cứu mô phỏng sự phối hợp cánh tay mực áp dụng cho AI giúp tăng tốc GPU lên 14.84x! Dự án được chia sẻ trên GitHub bởi @matthewlam721 và nhận nhiều chú ý trên Reddit. #thoibao #GPU #AI #octopus #khoahoccôngnghệ #speedup #study

reddit.com/r/programming/comme

GripNewsGripNews
2026-01-28

🌗 Rust 標準函式庫在 GPU 上的應用 - VectorWare
➤ 突破性進展:為 GPU 程式設計帶來更廣闊的可能性
vectorware.com/blog/rust-std-o
VectorWare 宣佈了一項突破性的進展,成功地讓 Rust 程式語言的標準函式庫 (std) 可以在 GPU 上直接執行。這項技術透過一個自訂的「主機呼叫」(hostcall) 框架實現,允許 GPU 程式碼向 CPU 發出請求,以執行 GPU 本身無法完成的操作,例如檔案存取和網路通訊。藉由提供與 CPU 環境相容的抽象層,這項技術有望大幅提升 GPU 程式設計的便利性,並擴展 Rust 生態系統在 GPU 領域的應用範圍。VectorWare 認為 CPU 和 GPU 的架構正趨於融合,因此共享抽象層變得越來越重要,而 Rust 的 std 函式庫可以提供一個穩定的介面,即使底層實現不斷變化也能保持不變。
+ 哇,這真是太棒了!一直覺得在 GPU 上使用 Rust 的標準函式庫會是個夢想,
程式設計

2026-01-28

"Người dùng Reddit hỏi về lựa chọn GPU cho AI entry-level với hệ thống cũ (Xeon E3-1275v2, DDR3). Mục đích: học tập, chạy LLM 1-7B quantized + LoRA inference. Gợi ý 3 VGA: RTX 3050 8GB ($250), RTX 5060 8GB ($320), RTX 3060 12GB ($320). Bạn sẽ chọn card nào? #AI #MachineLearning #GPU #VietAI #HọcMáy"

(499 characters)

reddit.com/r/LocalLLaMA/commen

2026-01-27

Việc chạy Ollama trên nền tảng GPU serverless gặp lỗi stream token. Dù hoạt động tốt cục bộ, nhưng khi dùng API serverless, stream bị mất. Vấn đề không phải từ Ollama mà do mô hình serverless xử lý inference như job lô, kết thúc các kết nối dài – yếu tố cần thiết cho stream. Có cách nào duy trì stream và scale-to-zero không? Cần hỗ trợ runtime hay chỉ fix API? #AI #Lập_trình #Serverless #Ollama #StreamToken #GPU

reddit.com/r/ollama/comments/1

Pierre Lindenbaumyokofakun@genomic.social
2026-01-27

SAIGE-GPU — Accelerating Genome- and Phenome-Wide Association Studies using GPUs Open Access

academic.oup.com/bioinformatic

"We developed SAIGE-GPU, a GPU-accelerated version of SAIGE that replaces CPU-intensive matrix operations with GPU-optimized kernels. The core innovation is distributing genetic relationship matrix calculations across GPUs and communication layers. "

#gwas #gpu #bioinformatics

2026-01-27

Как GPU навсегда изменили мир кино и как создавали спецэффекты раньше

Кино всегда стремилось показать невозможное: исчезающие люди, фантастические места, инопланетные существа и миры, которых никогда не существовало. Задолго до компьютеров спецэффекты создавались руками — с помощью зеркал, дыма, макетов, оптических трюков и кропотливой работы художников. Однако по мере того как зритель привыкал к чуду, кино сталкивалось с пределами физического мира: миниатюры ломались, декорации стоили дорого, а сложные сцены требовали месяцев подготовки ради нескольких секунд экранного времени. Сегодня за визуальной магией кино стоят не только режиссеры и художники, но и серверные стойки и целые фермы графических процессоров.

habr.com/ru/companies/selectel

#selectel #gpu #nvidia #кино #медиа

中國 GPU 天數智芯發佈路線圖 今年超 NVIDIA Blackwell 明年超越 Rubin 架構
中國 GPU 晶片商天數智芯(9903.HK)1 月 26 日發佈 4 代架構路線圖,提出以「高效率、可預期、 […]
#人工智能 #AI #Blackwell #GPU
unwire.hk/2026/01/27/iluvatar-

2026-01-27

RTX Pro 6000 96GB: Người dùng tìm cách nâng cấp để chạy mô hình ngôn ngữ Llama 3.3 70b, Mistral 2 Large 123b. Giá mới từ ~$8500, giá cũ từ $3000-$6000 (chủ yếu hàng Trung Quốc) khiến người mua băn khoăn liệu có phải lừa đảo không. Nên mua mới từ nhà bán lẻ lớn hay nhỏ? #GPU #AI #MáyHọc #CôngNghệ #RTXPro6000

reddit.com/r/LocalLLaMA/commen

36Kr Japan | 最大級の中国テック・スタートアップ専門メディア36kr.jp@web.brid.gy
2026-01-27

アリババの半導体子会社、独立上場へ 国産AIチップの本命が表舞台に

fed.brid.gy/r/https://36kr.jp/

<p>中国IT大手アリババグループは、傘下の半導体メーカー「平頭哥半導体(T-Head Semiconductor)」(以下、T-Head)を将来、独立上場させる方向で後押しすることにした。関係者の話で明らかになった。</p>
<p>2018年設立のT-Headはアリババの完全子会社で、コンピューティング、ストレージ、ネットワークなどで、業界トップクラスの性能を持つ複数のチップを展開している。主力製品には、人工知能(AI)推論チップ「含光(Hanguang)800」、ARMアーキテクチャに基づく汎用サーバー向けチップ「倚天(Yitian)710」(アリババクラウドのデータセンターに大規模導入済み)、SSD向けコントローラーチップ「鎮岳(Zhenyue)510」などのストレージチップ、AIアクセラレータ「PPU」などがある。</p>
<p>含光800は現在、アリババグループ傘下の電子商取引(EC)サイト「淘宝(タオバオ)」などのコア業務で用いられており、1秒間に約7万8000枚の画像処理ができる。米メディア「The Information」の報道や業界の実測によると、第1世代PPUの性能は米半導体大手NVIDIA(エヌビディア)の売れ筋商品「H20」シリーズに匹敵し、第2世代のアップグレード版PPUは特定の場面での実測性能ではNVIDIA「A100」を上回っているという。</p>
<blockquote class="wp-embedded-content"><p><a href="https://36kr.jp/310480/">中国半導体メーカー、NVIDIAの独占市場に切り込む AI向けチップの開発着々</a></p></blockquote>
<p></p>
<p>PPUは既に、アリババグループ傘下のクラウドサービス「アリババクラウド(阿里雲)」のエコシステムを基盤として、既に大規模モデルのトレーニングに活用されているなど、中国国内の他のチップ企業よりも先行している。業界関係者によると、T-HeadのPPUは2025年末時点で、中国産GPUの中で最も出荷量の多いチップの1つとなっている。</p>
<p>生成AIのコンピューティング能力に対するニーズが高まっている中、中国産AIチップの市場シェアも徐々に拡大している。2025年末から26年初めにかけて、複数の中国のGPU企業が相次いで上場した。業界の専門家は、T-Headが独立上場に成功した場合、その後ろ盾であるアリババクラウドのエコシステムと成熟した商用化能力により、その評価額は従来のスタートアップをはるかに上回ると見込まれている。</p>
<blockquote class="wp-embedded-content"><p><a href="https://36kr.jp/453109/">中国「国産GPU四小龍」すべて資本市場に 天数智芯も香港上場、時価総額約8000億円</a></p></blockquote>
<p></p>
<p>中国ネット大手の百度(バイドゥ)傘下のAI半導体子会社「昆崙芯(Kunlunxin)」は1月上旬に香港証券取引所に非公開で上場申請書を提出し、最大20億ドル(約3120億円)の資金調達を計画していると報じられている。</p>
<p>*1ドル=約156円で計算しています。</p>
<p>(36Kr Japan編集部)</p>
2026-01-27

Tại sao thêm GPU cũ lại làm giảm tốc độ xử lý LLM?

Một người dùng gặp tình trạng tốc độ (TPS) giảm từ 17 xuống còn 3-4 khi thêm GPU RTX 2060 Super vào hệ thống đang chạy 2x RTX 5060 Ti. Dù tổng VRAM tăng, nhưng việc cắm qua cổng PCIe x1 quá chậm đã tạo ra nút thắt cổ chai nghiêm trọng. Trong chạy mô hình ngôn ngữ lớn (LLM), băng thông truyền tải giữa các GPU quan trọng không kém dung lượng VRAM.

#LLM #AI #GPU #Hardware #CongNghe #LocalLLaMA #Performance #TechTips

reddit.com/r/Loca

2026-01-26

**Vulkan vs ROCm trên RX 9070 XT (RDNA4): Nhanh hơn 9%, tiết kiệm điện 50%!**

Kết quả benchmark với Ollama 0.15.1 và qwen3-coder:30b:
- **Tốc độ:** Vulkan 52.5 tokens/s vs ROCm 48.2 tokens/s (+8.9%)
- **Điện năng:** Vulkan 68W vs ROCm 149W (-54%)
- **VRAM:** Vulkan 16.1GB vs ROCm 15.8GB (+2%)

🔥 **Kết luận:** Vulkan không chỉ nhanh hơn mà còn tiết kiệm điện đáng kể trên RDNA4!

#Vulkan #ROCm #RDNA4 #AMD #Ollama #Benchmark #TechNews #CôngNghệ #GPU

reddit.com/r/ollama/comments/1

2026-01-26

Finished revamping my rasterization course! sibaku.github.io/site/rasteriz
Learn how to implement a complete rasterizer (what your GPU does) yourself in a browser! We start with pixels and end in 3D with textures and lighting. Each step in the course extends the functionality of the rasterizer and shows you all the math behind the algorithms and how to implement them (a basic variant of course). There is always exercise code and the solution!
#gpu #math #gamedev #learning #computergraphics

The result of the first rasterization course step: Drawing lines. The image shows a number of lines radiating outwards from the centerThe result after the final step of the rasterization course has been completed. The image shows a box with red (left), blue (back), green (right), white (bottom) walls. A box with a checkerboard pattern is on the left. A box with a random RGB texture is on the right. Above them is a slanted plane with varying transparency. In he back, here is another checkerboard plane. Everything is illuminated with a light source

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst