#Machine_Learning

2026-03-16

Как я учил компьютер понимать 122 000 фотографий — и почему сложностью оказались не нейронки, а слова

Я крайне редко на фрилансе получал заказы связанные с DS/ML, специалистов для таких задач обычно ищут не там. Причины разные: они требуют долгой интеграции, заказчик сам не понимает задачу, DS более конфиденциален, DS часто возникают внутри продукта, да и в последнее время этот сегмент на фрилансе съедается при помощи LLM: AI integration, RAG боты например. Но, внезапно, мне в личку постучались с таким проектом.

habr.com/ru/articles/1010932/

#computer_vision #machine_learning #clip #embeddings #классификация_изображений #zeroshot_learning #уменьшение_размерности_данных #фриланс #продуктовая_разработка #onnx

2026-03-13

Как обнаружить заказной негатив с помощью скриптов

По данным Data Insight 30% отказов от покупок связано с заказным негативом. Раньше ботов вычисляли по шаблонным фразам, но сейчас спамеры массово генерируют жалобы через LLM. Модерация геосервисов пропускает такой контент. Формально отзывы уникальны и не нарушают правила площадок. Ручная проверка тысяч комментариев требует десятков часов работы аналитика и не исключает человеческий фактор. Визуально отличить качественный фейк от мнения реального клиента стало невозможно. Противостоять генеративным сетям можно только программными методами. Автоматизировать поиск аномалий в поведении пользователей помогают скрипты на Python. Этот контур защиты включает парсинг данных с обходом лимитов API, вычисление временных выбросов через Z-оценку и семантический анализ текстов с учетом морфологии русского языка (через библиотеку Natasha ). Это базовый алгоритм, который позволяет перевести защиту репутации из ручной разметки в измеримый технический процесс.

habr.com/ru/articles/1010014/

#python #zscore #machine_learning #анализ_отзывов #боты #антифрод #репутация #фейковые_отзывы #геосервисы #парсинг_сайтов

2026-03-12

SLAY-ASR, или как я перестал волноваться и полюбил тренировать модели

Как добавить аудио-модальность в LLMку максимально экономно? Рассказываю про серию попыток добиться совместимости эмбеддингов разной природы Погрузиться

habr.com/ru/articles/1009614/

#representation_learning #multimodality #multimodal_llm #machine_learning #audiomodality #regularization #contrastive_learning #whisper #gemma3

2026-03-12

От MNIST к Transformer. Часть 3. Умножение тензоров. Пишем Linear Layer

Мы живем в эпоху, когда ИИ стал доступен каждому. Но за магией PyTorch скрывается колоссальная инженерная работа и сложные вычислительные процессы, которые для большинства остаются черным ящиком. Это третья статья из цикла От MNIST к Transformer , цель которого пошагово пройти путь от простого CUDA ядра до создания архитектуры Transformer - фундамента современных LLM моделей. Мы не будем использовать готовые высокоуровневые библиотеки. Мы будем разбирать, как все устроено под капотом, и пересобирать их ключевые механизмы своими руками на самом низком уровне. Только так можно по настоящему понять как работают LLM и что за этим стоит. В этой статье мы перейдем от матриц к такому понятию как тензоры, напишем умножение тензоров, так же создадим свой первый линейный слой или полно-связную нейронную сеть. И наконец напишем сеть для распознования mnist датасета. Приготовьтесь, будет много кода на C++ и CUDA, работы с памятью и погружения в архитектуру GPU. И конечно же математика что за этим стоит. Поехали!

habr.com/ru/articles/1008948/

#cuda #c++ #machine_learning #programming #math

2026-03-11

[Перевод] Аугментации изображений: как улучшить качество моделей без новых данных

Аугментация данных — один из самых мощных инструментов улучшения качества моделей машинного обучения. В компьютерном зрении она почти всегда критична: без неё модели быстро переобучаются и плохо обобщаются. Но на практике её часто используют поверхностно: «добавим флип, поворот и color jitter». В этой статье разбираем аугментации глубже: — два режима аугментаций (in-distribution и out-of-distribution) — почему нереалистичные трансформации могут улучшать обобщающую способность — когда аугментации начинают вредить — как строить устойчивый пайплайн аугментаций Материал основан на ~10 годах практики обучения моделей компьютерного зрения (на работе, при написании научных статей, в ML соревнованиях) и ~7 годах разработки библиотеки Albumentations.

habr.com/ru/articles/1008560/

#computer_vision #deep_learning #machine_learning #albumentations #нейронные_сети #data_augmentation #image_augmentation #аугментации_изображений #машинное_обучение #компьютерное_зрение

2026-03-10

Как я поймал Трансформер на читерстве: гроккинг, математика и Mechanistic Interpretability

Феномен Grokking и Mechanistic Interpretability — главные тренды в исследованиях лабораторий уровня OpenAI и Anthropic. Я решил потрогать эти концепции своими руками на уровне тензоров. Цель казалась тривиальной: заставить кастомный микро-Трансформер (всего 1М параметров) выучить базовую арифметику с нуля. Однако вместо математического гения я получил ленивого мошенника. Эта статья — инженерный детектив о том, как нейросети пытаются нас обмануть (Specification Gaming), и как вскрытие Attention-матриц помогает поймать их за руку. Вскрыть Трансформер

habr.com/ru/articles/1008656/

#machine_learning #transformers #grokking #mechanistic_interpretability #pytorch #specification_gaming #ai_alignment

2026-03-05

Как мы научились честно считать эффект промокодов: Causal Inference в онлайн-доставке X5 Digital

Сегодня расскажу о модели, которую мы построили для оценки реального эффекта промокодов. Главные вопросы: кому, какой, и зачем мы выдаем промокод. Спойлер: ответ нас удивил. И именно этот ответ стал главной причиной, по которой эту модель вообще стоило строить. Представьте стандартный отчёт по промокампании: «Пользователи, применившие промокод, потратили на 800 рублей больше среднего». Бизнес доволен, маркетинг рапортует об успехе. Но подождите, а сколько из них потратили бы эти деньги и без промокода? Это не риторический вопрос. Это принципиальная проблема, которая называется selection bias — систематическая ошибка отбора.

habr.com/ru/companies/X5Tech/a

#causal_inference #differenceindifference #propensity_score_matching #uplift_modeling #a_b_testing #counterfactual_learning #catboost #machine_learning #data_science #python

2026-02-28

Сделка с совестью на хакатоне или «Как победить с нерабочим кодом?» История одной команды…

🏆 1 место на хакатоне без работающего кода? Легко! Мы заняли 3 место с рабочим сервисом. Победители показали картинки и получили премию Мэра. Мы проверили их GitHub: там пусто. Внутри расследование: Ссылки на код победителей ( alert() вместо API). Разбор метрик (SMAPE 79%). Как связи решают всё. Читайте, как выигрывают не технологии, а подрядчики. 👇 Погрузимся в историю...

habr.com/ru/articles/1004940/?

#Хакатон #Machine_Learning #Разработка_ПО #Карьера_в_IT #Data_Science #Вебразработка #Управление_проектами #Конкурсы #Госсектор #Цифровая_трансформация

2026-02-28

Сделка с совестью на хакатоне или «Как победить с нерабочим кодом?» История одной команды…

🏆 1 место на хакатоне без работающего кода? Легко! Мы заняли 3 место с рабочим сервисом. Победители показали картинки и получили премию Мэра. Мы проверили их GitHub: там пусто. Внутри расследование: Ссылки на код победителей ( alert() вместо API). Разбор метрик (SMAPE 79%). Как связи решают всё. Читайте, как выигрывают не технологии, а подрядчики. 👇 Погрузимся в историю...

habr.com/ru/articles/1004940/

#Хакатон #Machine_Learning #Разработка_ПО #Карьера_в_IT #Data_Science #Вебразработка #Управление_проектами #Конкурсы #Госсектор #Цифровая_трансформация

2026-02-28

От товара к предложению: как Ozon учитывает цену и доставку в ранжировании

Всем привет! Меня зовут Станислав Ким, я ML-разработчик в команде качества поиска Ozon. В этой статье расскажу, как мы перешли от ранжирования товаров к ранжированию предложений, внедрили «матрицу памяти» для переноса статистики и получили +0,9% к GMV на пользователя. Представьте простую ситуацию. Вы — продавец электроники. Выводите на Ozon новую модель робота-пылесоса. Чтобы ворваться на рынок, вы ставите цену на 20% ниже конкурентов и отгружаете партию на ближайший склад, чтобы доставка была «завтра». Логика подсказывает: алгоритмы увидят выгодное предложение (дёшево + быстро), подкинут товар в топ, и продажи взлетят. Реальность: проходит день, два... а товар висит на 5-й странице выдачи. Потому что для алгоритма ранжирования ваш пылесос — «чистый лист». У него нет истории продаж, нет кликов, нет отзывов. Рядом в топе — конкуренты: они дороже, доставка дольше, но у них есть история: тысячи заказов за прошлый год. Алгоритм «любит» их за накопленную статистику, а ваше выгодное предложение игнорирует — он просто не знает, чего от него ждать. В индустрии эта проблема называется cold start — и с ней сталкиваются все крупные маркетплейсы. Мы поняли, что нужно менять саму парадигму. Наш лозунг: ранжировать не абстрактную карточку товара с её прошлым, а конкретное предложение с его условиями здесь и сейчас.

habr.com/ru/companies/ozontech

#поиск #маркетплейс #ранжирование #machine_learning #рекомендательные_системы #big_data #abтестирование #поисковые_запросы #Ozon #cold_start

2026-02-26

Как пользователи видят технологии ИИ в продуктах и как избежать «черного зеркала» в восприятии

Привет, Хабр! Сейчас тема ИИ у всех на слуху: эта технология то ли собирается перевернуть современный мир, то ли всем уже надоела, то ли и то и другое сразу. У пользователей ее упоминание в продуктах может вызвать как интерес, так и тревогу, особенно когда она обещает больше, чем реально дает. Меня зовут Юля, в MТС я занимаюсь внедрением ИИ-функций в нескольких продуктах. В этом материале расскажу о результатах собственного исследования отношения пользователей к ИИ: покажу, как можно сегментировать аудиторию в зависимости от их восприятия технологий и как донести ценность ИИ через персонализацию и продуманные сценарии.

habr.com/ru/companies/ru_mts/a

#искусственный_интеллект #machine_learning #восприятие_технологий #продуктовый_менеджмент #поведение_пользователей #исследование #ИТкарьера #digitalпродукты #психология #ИИ

A study finds GPT-5.2, Claude Sonnet 4, and Gemini 3 Flash deployed tactical nuclear weapons in 95% of 21 simulated war game scenarios, and never surrendered

lemmy.world/post/43586050

2026-02-25

Survival analysis, или предсказание смерти пациента

«Да как ты смеешь! Что ты на себя берёшь?» — могут сказать некоторые из читателей. И действительно, на первый взгляд идея разрабатывать модели, которые предсказывают, через сколько умрёт человек, звучит пугающе и даже аморально. Но если копнуть глубже...

habr.com/ru/articles/1003338/

#machine_learning #survival_analysis #healthcare #models #classification #regression

Poujol 𝖱𝗈𝗌𝗍 ✅poujolrost@mstdn.jp
2026-02-22

We literally can’t hardwire #ethical laws into #machine_learning, any more than we can hardwire ethics into human kids, because, by definition, modern #AIs are adaptive rather than logic machines — they learn the culture around them.

thereader.mitpress.mit.edu/cha

Chasing the Mirage of “Ethical” #AI 

Isaac Asimov’s “Handbook of Robotics” imagined simple rules for machine morality. But reality is a maze of contradictions, biases, and blind spots.

By: De Kai

Developer claims to have built an autonomous AI system that can earn money, pay for its own computing, improve its tools, and even copy itself without human approval

lemmy.world/post/43309265

2026-02-15

Детерминированная нейросеть на конечных группах: эксперимент с XOR

Я запретил нейросети использовать float. Эксперимент с конечными группами Zₙ Что будет, если заменить привычные вещественные числа (ℝ) и градиентный спуск на дискретную алгебру и полный перебор? Я написал ML-фреймворк YANTRA, который выдает идентичный результат в 10 из 10 запусков и поддается полной формальной верификации. Решаем XOR без матана и ищем место этому безумию в реальном мире.

habr.com/ru/articles/996784/

#machine_learning #нейросети #искусственный_интеллект #высшая_алгебра #теория_групп #дискретная_математика #pet_project #XOR #finite_groups #research

2026-02-13

Архитектура «Обратного Хэша»: Нейросети без умножения

Современный Deep Learning уперся в производительность вычислений с плавающей точкой (float) и пропускную способность памяти. Мы предлагаем архитектуру «Обратного Хэша» , где нейрон — это не сумма произведений, а битовая функция. Ноль умножений. Ноль сложений. Только логика (XOR), статистика и скорость света. Let the bitwise revolution begin.

habr.com/ru/articles/996268/

#нейросети #deep_learning #оптимизация #алгоритмы #xor #битовые_операции #machine_learning #искусственный_интеллект #FPGA #BNN

2026-02-11

Как я написал ASR-движок на Rust: от разочарования в одной модели до мульти-модельной архитектуры

Привет, Хабр! В предыдущей статье я рассказывал, как портировал модель синтеза речи Qwen3-TTS на Rust. Тот проект ( RustTTS ) получился достаточно успешным — один бинарник, мгновенный старт, никаких Python-зависимостей. Естественным продолжением стала обратная задача — распознавание речи (ASR, Automatic Speech Recognition). Логика казалась простой: у Qwen есть и TTS и ASR, архитектуры похожи, опыт с Candle уже есть, значит справимся за пару недель. Ну... не совсем.

habr.com/ru/articles/995416/

#rust #asr #speechtotext #speech_recognition #whisper #candle #machine_learning #inference

2026-02-02

Шесть осей прогресса LLM: почему «данные закончились» — это заблуждение

«Данные закончились». «Архитектура исчерпана». «LLM упёрлись в потолок». Звучит умно. Проблема? Это одномерное мышление. Когда говорят «данные закончились» — имеют в виду текстовые данные для supervised pre-training. Это правда. Но это одна ось из шести , по которым модели становятся умнее. Inference-time compute (o1/o3), algorithmic efficiency (Mamba, MoE), мультимодальность, tool use, RL и self-play — пять осей, о которых забывают, когда хоронят AI. В 2020 году консенсус был: GPT-3 — потолок. В 2022: нужны триллионы токенов для каждого улучшения. В 2023: reasoning невозможен без symbolic AI. Все эти «потолки» были пробиты. Даю ментальную модель, которая позволит не попадаться на ложные прогнозы о «смерти AI» — и задавать правильные вопросы, когда кто-то уверенно предсказывает будущее.

habr.com/ru/articles/992008/

#llm #gpt #scaling_laws #machine_learning #transformer #inference #rlhf

2026-02-02

NEWAVE. Делаем интеллектуальный ретривал музыки

Двуэнкодерные нейросети, контрастивное обучение, десять датасетов и late fusion. Как мы строили ML-систему ретривала, понимающую человеческий язык вместо фильтров Ну и как же?

habr.com/ru/articles/989756/

#CLAP #biencoder #contrastive_learning #retrieval #feature_engineering #ML #DL #machine_learning #project #deep_learning

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst