#%D0%B7%D0%B0%D0%B4%D0%B5%D1%80%D0%B6%D0%BA%D0%B0

2025-09-11

[Перевод] Архитектура LPU и будущее AI без задержек

Команда AI for Devs подготовила перевод статьи о том, как Groq пытается устранить главное «бутылочное горлышко» современного ИИ — задержку. Их специализированный процессор LPU обещает скорость в реальном времени и открывает путь к новым приложениям: от финансовых систем до Coding AI-ботов. Но за пределами маркетинга остаются вопросы: что с большими контекстами, какова конкуренция с Cerebras и GPU, и выдержит ли бизнес-модель такие вызовы?

habr.com/ru/articles/945894/

#Groq #LPU #инференс #задержка #ai #gpu

2024-12-20

[Перевод] Мнение: рационализация конкуренции за низкую задержку в высокочастотной торговле

Существует распространённое заблуждение, даже среди практиков, что low-latency торговля — это пустая трата интеллектуальных ресурсов человечества, которые могли бы быть направлены на новые открытия в области физики или лечения онкологических заболеваний. Такой вид торговли подвергается многочисленной критике с разных сторон — он описан в негативном ключе в книге «Flash Boys», правительства разных стран пытаются обложить такие транзакции повышенными налогами, биржи подвергаются давлению и вынуждены замедлять торговые сессии или проводить пакетные аукционы. В этом эссе приводятся аргументы в пользу высокочастотной торговли, основанные на четырёх основных тезисах: (1) высокочастотная торговля уменьшает бид-аск спреды, (2) экономически значимые события действительно происходят за считанные микросекунды, (3) HFT необходим для нормального функционирования капитализма, и (4) рынки — это не игра с нулевой суммой.

habr.com/ru/articles/865874/

#hft #фондовый_рынок #latency #высокочастотная_торговля #задержка #биржевая_торговля

2024-12-03

Самые быстрые страусы: выбираем способ организовать обмен прерываниями между машинами QEMU c KVM и без

QEMU позволяет эмулировать работу не только одной отдельной машины, но и связывать несколько независимых машин между собой. Для организации такой связи их обычно объединяют в одну сеть, например с использованием virio-net-pci. Но виртуальный ethernet — не единственный способ, связь может быть и более близкой и плотной: общая память и mailbox, линии gpio и даже NTB . Быстрая работа связанных QEMU машин приятна при разработке/отладке и очень важна при массовом прогоне автотестов в CI: нужна как высокая пропускная способность, так и низкая задержка передачи сообщения. Для одной из задач с коллегами из отдела системного программирования YADRO я оптимизировал часть такой связки, а именно — обмен прерываниями. В статье расскажу о дизайне нескольких подходов организации IQI , разберу внутреннее устройство QEMU и поделюсь, как оправдались наши ожидания.

habr.com/ru/companies/yadro/ar

#QEMU #ntb #linux #kvm #прерывания #задержка #iqi

2024-06-05

[Перевод] Оптимизация настроек Kafka кластера. Часть 3. Сравнительное тестирование, мониторинг и тонкая настройка Kafka кластера

Привет, Хабр! Представляю вам третью (заключительную) часть серии статей, посвященных оптимизации развертывания Kafka кластера (ссылка на первую и вторую части). Это перевод руководства от Confluent. Сегодняшняя статья посвящена сравнительному тестированию настроек и мониторингу Kafka кластера.

habr.com/ru/articles/819677/

#apache_kafka #benchmarking #мониторинг #tuning #пропускная_способность #задержка #настройка #надежность #доступность

2024-06-03

[Перевод] Оптимизация настроек Kafka кластера. Часть 2. Механизмы управления задержкой, надежностью и доступностью

Привет, Хабр! Представляю вам вторую часть из серии статей, посвященных оптимизации развертывания Kafka кластера ( ссылка на первую часть ). Это перевод руководства от Confluent. Сегодняшняя статья посвящена тому, как уменьшить задержку и повысить надежность и доступность. Заключительная третья часть будет посвящена мониторингу и бенчмаркингу.

habr.com/ru/articles/819243/

#apache_kafka #оптимизация #задержка #надежность #доступность

2024-05-29

[Перевод] Оптимизация настроек Kafka кластера. Часть 1. Механизмы управления пропускной способностью

Привет, Хабр! Представляю вам перевод технического документа от Confluent, который посвящен тому, как определить, что именно нужно оптимизировать (пропускная способность, задержка, надежность или доступность), как настроить развертывание Kafka в соответствии с этими целями и убедиться в их достижении с помощью мониторинга. Сегодня я выкладываю первую часть, в которой обсуждается, как определить цели оптимизации и улучшить пропускную способность Kafka. Последующие статьи будут посвящены задержке, надежности, доступности, мониторингу и бенчмаркингу.

habr.com/ru/articles/818007/

#apache_kafka #повышение_производительности #пропускная_способность #задержка #доступность #надежность #оптимизация

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst