#pyTorch

Fossery Tech :debian: :gnome:fosserytech@social.linux.pizza
2026-01-25

(more Linux and FOSS news in previous posts of thread)

Ollama launches experimental local image generation on macOS with Z-Image Turbo and FLUX.2:
alternativeto.net/news/2026/1/

Penpot 2.13 update: box shadow tokens, improved i18n, and enhanced file management:
alternativeto.net/news/2026/1/

Radicle 1.6.0 Amaryllis released: major updates and Windows build support:
alternativeto.net/news/2026/1/
(Never heard of this Git platform before, but I find the concept of peer-to-peer based code sharing platform pretty interesting, never seen such thing before, so I thought I include it here.)

Rust 1.93 brings musl 1.2.5, allocator improvements, and cfg attributes on asm! lines:
alternativeto.net/news/2026/1/

jQuery 4.0 trims legacy code, drops deprecated APIs, migrates to ES modules, and more:
alternativeto.net/news/2026/1/

Scala 3.8 requires JDK 17, standard library now built with Scala 3:
alternativeto.net/news/2026/1/

Swift cross platform framework, Skip, is now free and open source with licensing removed:
alternativeto.net/news/2026/1/

PyTorch 2.10 Released With More Improvements For AMD ROCm & Intel GPUs:
phoronix.com/news/PyTorch-2.10

GNU C Library 2.43 Released With More C23 Features, mseal & openat2 Functions:
phoronix.com/news/GNU-C-Librar

AMD Ryzen AI Software 1.7 Released For Improved Performance On NPUs, New Model Support:
phoronix.com/news/AMD-Ryzen-AI

ReactOS Celebrates 30 Years In Striving To Be An Open-Source Windows Implementation:
phoronix.com/news/ReactOS-30-Y

ReactOS For "Open-Source Windows" Achieves Massive Networking Performance Boost:
phoronix.com/news/ReactOS-Asyn

DragonFlyBSD Now Allows Optional AMD GCN 1.1 Support In AMDGPU Driver:
phoronix.com/news/AMD-CIK-AMDG

ChaosBSD Is A New BSD For "Broken Drivers, Half-Working Hardware, Vendor Trash" Test Bed:
phoronix.com/news/ChaosBSD
(Interesting concept, never seen such a system before, not even on Linux land with its few thousand distros lol)

#WeeklyNews #OpenSource #FOSSNews #FOSS #AI #Ollama #Penpot #Radicle #Rust #jQuery #Scala #Swift #PyTorch #GNUCLibrary #AMDRyzenAI #ReactOS #DragonflyBSD #BSD #ChaosBSD #Dev #FosseryTech

think independent (@ThinkIndepende2)

작성자가 PyTorch 코드를 JAX 또는 XLA 코드로 효율적으로 변환하는 방법을 묻고 있습니다. 여러 개발자(@antigravity 등)를 태그하며 자동 변환 기능이 'killer feature'가 될 것이라고 제안해, 프레임워크 간 코드 변환 도구나 워크플로 개선에 대한 관심을 드러냅니다.

x.com/ThinkIndepende2/status/2

#pytorch #jax #xla #modelconversion

Manav Rathimnvr
2026-01-20

Indexing into a tensor always gives back a tensor.

ahas

Stephen Blumstephenblum
2026-01-19

Python + compiled libs deliver GPU speed with simple code.

2026-01-19

Neuer Blogartikel: Ubuntu-Chroot auf Debian für volle ROCm-GPU-Beschleunigung in KI-Workflows. Inklusive Automatic1111, ComfyUI und Text-Generierung:

404lifenotfound.freeddns.org/p

#Linux #ROCm #AMD #GPU #AI #KI #StableDiffusion #ComfyUI #PyTorch #Virtualization #Chroot #Debian #Ubuntu #Developer #Tech

AqarionAqarion
2026-01-14

AQARION φ³⁷⁷ HYPERGRAPH ARITHMETIC ENGINE

PROBLEM: 67% math retention failure rate
SOLUTION: Operations → physics-backed hyperedges
φ³⁷⁷ temporal decay →

⚡ PERFORMANCE:
• 120ms hyperedge construction
• 98.7% cache hit rate
• 1.2s E2E voice
OPEN SOURCE:
github.com/aqarion/phi377-hypergraph
MIT licensed → FOSS devs contribute NOW!
r/Machinists validated physics foundation
u/Quantarius13 live on Reddit ML

Ok yea on #ArchLinux, to get #OpenAI 's #Whisper working with an #NVIDIA GPU (i.e. #Cuda), it's easier to just install the following packages from the Arch repos:

-
python-openai-whisper
-
python-pytorch-cuda (replace default python-pytorch if any)

There's prolly a way to get the one installed from
#Nix working too, I've just no idea how lol. Even installing #Torch/#PyTorch takes incredibly long on Nix cos it has to build it from scratch.

RE: https://sakurajima.social/notes/ah8zifc6hn

2026-01-13

Not sure how to diagnose bottlenecks in your #PyTorch inference workloads? In this new article, Chaim Rand uses NVIDIA Nsight Systems to find and incrementally fix data transfer issues, increasing throughput by over 4x.

towardsdatascience.com/optimiz

2026-01-11

Джентльменский набор LLM-инженера: гайд по экосистеме языковых моделей

Каждый, кто хоть раз вводил pip install transformers , наблюдал, как терминал начинает безостановочно выводить простыню зависимостей: pytorch , accelerate , bitsandbytes , peft и многие, многие другие. Но если PyTorch является фундаментом, настоящим Атлантом, на плечах которого держатся тензорные вычисления, то какую роль играют его помощники? В этой статье мы проведём ревизию джентльменского набора LLM инженера. Для этого мы изучим функционал, методы работы и даже заглянем в исходный код таких библиотек, как PyTorch, Transformers, Accelerate, Bitsandbytes, PEFT и Unsloth. Эти знания позволят вам видеть за списком импортов не просто названия, а четкую структуру, на которой держится ваше приложение.

habr.com/ru/articles/984248/

#LLMэкосистема #pytorch #accelerate #transformers #bitsandbytes #peft #unsloth #распределённое_обучение #граф_вычислений #квантование

2026-01-10

So sánh Mac mini m4, MacBook m2 và i7 12th & rtx 3060 cho đào tạo PyTorch và sử dụng hàng ngày với 16GB RAM #MacMini #MacBook #PyTorch #RTX3060 #i7 #ĐàoTạoMáyTính #SửDụngHàngNgày #Apple #NVIDIA

reddit.com/r/LocalLLaMA/commen

2026-01-09

[Перевод] Обучение ИИ-моделей на обычном ЦП

Ещё раз о ЦП для машинного обучения в эпоху дефицита мощностей GPU Недавние успехи в области ИИ зачастую связывают с появлением и эволюцией графических процессоров (GPU). Архитектура GPU, как правило, включает тысячи ядер для многопроцессорной обработки, высокоскоростную память, выделенные тензорные ядра и пр. Такая архитектура особенно хорошо подходит для рабочих нагрузок, связанных с ИИ и машинным обучением, которые отличаются высоким потреблением ресурсов. К сожалению, из-за резкого роста разработок в области ИИ также наблюдается всплеск потребности в GPU, из-за чего возник их дефицит. В результате разработчики систем машинного обучения всё активнее изыскивают альтернативные аппаратные платформы, на которых можно было бы обучать и эксплуатировать модели. В таком качестве используются, например, выделенные специализированные интегральные схемы (ASIC) для работы с искусственным интеллектом, такие как облачные тензорные процессоры Google , Haban Gaudi и AWS Trainium . Притом, что эти варианты позволяют значительно сэкономить, они подходят для работы не со всеми моделями машинного обучения и, подобно GPU, также остаются дефицитными. В этом посте мы вновь обратимся к старым добрым классическим процессорам (CPU) и вновь поговорим о том, насколько они адекватны применительно к современным ML-моделям. Безусловно, ЦП обычно не так хороши для обслуживания связанных с машинным обучением рабочих нагрузок как графические процессоры, зато их гораздо проще приобрести. Если бы удалось гонять на ЦП (хотя бы некоторые) из таких рабочих нагрузок, то продуктивность разработки в целом удалось бы значительно повысить.

habr.com/ru/articles/983908/

#GPU #CPU #Pytorch #оптимизация #машинное_обучение

2026-01-08

Лоботомия нейросети: удалил 7 слоёв из LLM — она стала на 30% быстрее

Эксперимент по хирургическому удалению слоёв из языковой модели Современные LLM переобучены — многие слои делают одно и то же. Я проверил эту гипотезу на практике: взял TinyLlama (1.1B параметров, 22 слоя) и измерил, как удаление каждого слоя влияет на perplexity. Результаты: • Удаление 1 среднего слоя: +10% скорость, -4% качество • Удаление 7 «безопасных» слоёв: +32% скорость, -2.5% качество • Удаление первого слоя: модель полностью ломается Неожиданно: Layer 2 важнее Layer 0 (perplexity +6.67 vs +3.92 при удалении). Статья с кодом на PyTorch, графиками и практическими рекомендациями — какие слои можно удалять для ускорения инференса.

habr.com/ru/articles/983636/

#LLM #Large_Language_Models #Layer_Pruning #оптимизация_нейросетей #TinyLlama #PyTorch #inference_optimization #трансформеры #ускорение_моделей #ShortGPT

Manav Rathimnvr
2026-01-08

operations involve two dynamic dispatches

From: blog.ezyang.com/2019/05/pytorc

(and what a lovely font)

https://blog.ezyang.com/2019/05/pytorch-internals/

With the cluster and storage down for maintenance this week, I thought about doing some #pytorch development locally an my laptop. No dedicated GPU, but a recent #intel Core Ultra 2 CPU. So first I went for the CPU-only packages.

Only yesterday I realized that the Windows task manager shows something called #npu in its charts. Fair enough, let's see whether pytorch can use it ...

I have to say, the #xpu pytorch integration has gone a long way. In my case, I could use it as a drop-in replacement for #cuda / #rocm pytorch, yet with the obvious performance differences between HPC GPUs and a laptop iGPU.

docs.pytorch.org/docs/stable/n

Always nice to have alternatives. Especially for basic testing I don't need big (expensive) GPUs.

2026-01-06

A Nvidia não ficou gigante só porque fez uma GPU rápida e mandou uma nota fiscal junto. Ela ficou gigante porque transformou um detalhe técnico em hábito cultural: a ideia de que “fazer IA de verdade” é, por definição, fazer IA em CUDA.

moprius.com/2026/01/meta-e-goo

2026-01-06

Implement the YOLOv1 loss function from scratch in #PyTorch. This new guide by Muhammad Ardi walks you through the complete code, from the IoU helper function to testing each component.

towardsdatascience.com/yolov1-

2026-01-06

Increase your model's throughput by over 2x. Learn the optimization techniques Chaim Rand used to significantly speed up a #PyTorch training workload by resolving data transfer bottlenecks.

towardsdatascience.com/optimiz

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst