#prompt_engineering

2026-03-11

Один промпт — это не продукт. Как мы перестали обманывать себя и собрали мультиагентный пайплайн

Знаете, что объединяет 90% «AI-стартапов» в 2026 году? Один промпт, обёрнутый в красивый UI и с подпиской за $29 в мес.

habr.com/ru/articles/1009212/

#мультиагентная_архитектура #llm #рерайт #prompt_engineering #агентный_ии #автоматизация_контента #фактчек #aiагенты #сми

2026-03-08

Закурсорить мечту. Часть 4: неожиданный финал

Изначально, в этой части цикла я планировал разместить объемный материал про установку Git, Cursor, изначальную настройку и видео с ходом реализации проекта с первых строк, но реакция читателей показала, что написать нужно совершенно о другом .

habr.com/ru/articles/1007984/

#cursor #cursor_ai #cursor_ide #prompt #prompt_engineering #supabase #antigravity #antigravity_ide

2026-03-07

Закурсорить мечту. Часть 3: ТЗ (техническое задание)

Если вы ещё не создавали сервис с помощью ИИ, честно, я вам завидую. Вспоминаю то чувство, которое испытывал летом 2025-го, когда начал экспериментировать с этим. Если вы уже прочитали Часть 1 и Часть 2 , то сейчас вы находитесь в одном из самых захватывающих моментов всего процесса. И мой совет может показаться странным: остановитесь на несколько дней на этапе формирования самого первого промпта для Курсора или подобной платформы.

habr.com/ru/articles/1007806/

#cursor #cursor_ai #cursor_ide #cursor_agent #cursor_ai_ide #cursor_cli #supabase #prompt #prompt_engineering #promptengineering

2026-02-24

История о том, как я устал от галлюцинаций ИИ и собрал инструкцию для нейронки

Делал проект с помощью нейросети — бесконечные галлюцинации довели. Начал собирать инструкцию для ИИ. Через 14 версий и 25 000 слов получил систему с адаптивным Deep Compute Engine, Red Teaming и двухмерной системой статусов. В статье: Эволюция от v1.0 до v7.7.2 — что добавлял и зачем Какая версия подойдёт под вашу задачу Инструкция по внедрению в системный промпт Режим Brainstorming для креатива Пасхалка: иммерсивная «БРО» версия для фана Для тех, кто устал объяснять агенту, что он выдумал параметр.

habr.com/ru/articles/1003032/

#ИИ #нейросети #промпты #галлюцинации_ИИ #LLM #инструкция_для_ИИ #prompt_engineering #AI_agent #системный_промпт #эпистемическая_честность

2026-02-20

Что такое Skills и как их использовать? (Cursor, Claude Code)

Вы наверняка ловили себя на том, что раз за разом копипастите в чат с ИИ одни и те же инструкции: «Пиши на TypeScript», «Не используй сторонние библиотеки», «Добавляй тесты». В программировании мы по сути называем это нарушением принципа DRY (Don't Repeat Yourself) . Но почему мы продолжаем это делать при общении с нейросетями? В этой статье мы разберем концепцию Skills (Скиллов) - переиспользуемых «навыков» для ИИ-ассистентов, которые живут прямо в вашем репозитории и делают работу агентов предсказуемой, чистой и профессиональной.

habr.com/ru/articles/1001830/

#Claude_Code #Cursor #искусственный_интеллект #нейросети #AIагенты #Skills #вайбкодинг #prompt_engineering #MCP #Claude

2026-02-04

Карта российских ИИ-платформ для аналитика

GigaCode vs SourceCraft Code Assistant: что выбрать аналитику в 2025? Сравнил две российские AI-IDE по критериям, важным не разработчику, а аналитику: работа с документами, контекстное окно, агентный режим, бесплатные квоты. Плюс пошаговые инструкции — от регистрации до первого запроса в чате. SourceCraft: 3000 предложений + 1000 чат-запросов в неделю бесплатно, лимиты прозрачны. GigaCode: бесплатен для пользователей GitVerse, квоты не публикуются. Бонус: таблица соответствия концепций Roo Code → российские платформы. Для тех, кто читал мои предыдущие статьи и хочет применить подходы на одобренном стеке.

habr.com/ru/articles/992872/

#GigaCode #SourceCraft #YandexGPT #GigaChat #AIассистент #импортозамещение #бизнесанализ #prompt_engineering

2026-02-02

Как я пытался сжимать смыслы вместо байтов

Написал прототип SemanticZip: сжатие текста в 14 раз за счет удаления «выводимой» информации. Теория информации, Колмогоровская сложность. В теории все работало... Разбор полетов: почему нельзя сжимать смыслы и почему красивые метафоры проигрывают скучному RAG

habr.com/ru/articles/991800/

#LLM #RAG #Claude #Context_Window #Semantic_Compression #Prompt_Engineering #Векторный_поиск #Галлюцинации #Опыт #Сжатие_данных

2026-01-20

Я сделал AI-анализатор договоров и проверил его на 5 кейсах, где люди потеряли 1,6 млн

Как я построил модульную систему промптов для YandexGPT, почему GPT из коробки галлюцинирует на юридических документах, и что из этого получилось.

habr.com/ru/articles/986964/

#yandexgpt #искусственный_интеллект #право #llm #LegalTech #договоры #автоматизация #анализ_документов #prompt_engineering

2026-01-20

Выжимаем максимум из опенсорсных моделей и готовим Text2SQL

В любой крупной компании есть повторяющийся сценарий. Аналитик сидит над экспериментом или моделью, строит А/В тесты и дашборды, и в этот момент приходит бизнес и просит быстро посмотреть «продажи жвачки за вчера». Аналитик переключается, пишет запрос, отдаёт результат, а через десять минут прилетает почти такой же вопрос. Потом ещё один и ещё. День заканчивается, а свои задачи стоят и покрываются ржавчиной. Так выглядит ручной доступ к данным. Бизнес понимает, что нужные данные в хранилище есть, но не всегда может их быстро получить. А аналитик становится «бутылочным горлышком», через которое проходит большой поток запросов. Мы хотели упростить работу с данными. Чтобы пользователь задавал вопрос, сервис превращал его в SQL, выполнял в хранилище и возвращал аналитический ответ. Чтобы рутина уходила в инструмент, а аналитик переставал быть «бутылочным горлышком». Вроде ничего нового, но в реальной инфраструктуре вскрывается много интересного: специфическая лексика, свойственная каждому из направлений бизнеса, громоздкие витрины, опыт работы с легаси системами и поведение LLM, которую сначала надо надрессировать.

habr.com/ru/companies/oleg-bun

#text2sql #large_language_models #open_source_llm #qwen #gpt #аналитика_данных #bird #spider #prompt_engineering #prompt_injection

2026-01-15

Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S

LLM умеют многое, но иногда ломаются так, что виноватым выглядит пользователь: контекст уезжает, инструкции исчезают, инструмент падает, а модель продолжает говорить уверенно, как будто всё нормально. Мы смотрим на это не как на “плохой ответ”, а как на деградацию состояния диалога . Если не поймать момент, по цепочке шагов и становится всё убедительнее. Мы собрали процедуру SDX-S: триггеры → диагностика причины → восстановление → критерии возврата . Ниже: состояния, “дашборд” и два кейса, где это реально спасает.

habr.com/ru/articles/985334/

#сезон_ии_в_разработке #llmjs #chatgpt5 #prompt_engineering #guardrails #hallucinationsinai #observability #finite_state_machine #tool_use #reliability

2026-01-10

Как я отучил нейросеть писать «Я коммуникабельный» и заставил её проходить HR-фильтры

Сейчас каждый второй джун пытается генерировать сопроводительные письма через ChatGPT. И каждый первый рекрутер научился их детектить за секунду. Стандартный ответ LLM выглядит так:

habr.com/ru/articles/983940/

#python #llm #chatgpt #prompt_engineering #автоматизация #поиск_работы #искусственный_интеллект #nlp #карьера #hhru

2025-12-27

LLM не понимает намерение пользователя?

На днях вышла новая статья "Beyond Context: Large Language Models Failure to Grasp Users Intent" , которая задаёт новые тренды академического кликбейт названия публикаций. По сути авторы заявляют, что модели не понимают глобального интента пользователя. Они делают глубокое исследование, которое это подтверждает на примерах обеспечения личной безопасности пользователя и получения легальной, но потенциально вредоносной информации. Но на практике оказывается иначе: модели распознают намерение пользователя, но не используют его при принятии решений . Почему так происходит и как с этим работать в реальных системах?

habr.com/ru/articles/981118/

#интенты #llmмодели #контроль_поведения #фильтрация_ответов #prompt_engineering #intent_recognition

2025-12-09

13 рецептов создания AI-ассистента для музыкального театра: от онбординга до классификатора

За 6 недель я автоматизировал работу музыкального театра, создав AI-ассистента на базе n8n и LLM. Ванесса общается с 50 родителями на естественном языке, обрабатывает платежи, обрабатывает платежи, информирует о расписании занятий и концертов — заменила целую штатную единицу. Расходы — 150 рублей в месяц. В статье — 13 практических рецептов с кодом, схемами workflow и конкретными цифрами. Все решения придуманы и отшлифованы в боевых условиях. 8 AI-агентов, расходующих 10-12 млн токенов в месяц на службе искусства.

habr.com/ru/articles/974980/

#n8n #AIагент #LLM #автоматизация #чатбот #Telegram_bot #workflow #prompt_engineering #Claude_Sonnet #nocode

2025-12-09

https://github.com/ComposioHQ/awesome-claude-skills/tree/master/skill-creator

Claude Skill 기능을 적극적으로 활용해보려고 하는데, skill을 만들 수 있도록 돕는 skill-creator라는게 있다. 이걸 좀 더 참고해서 어떻게 나한테 쓸만한걸 만들 수 있는지 한번 살펴봐야겠다.

#llm #prompt_engineering

2025-12-03

Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт

Бывало ли такое, что вы ведете долгий проект вместе с агентом, ставите задачи ИИшке, а она только и делает, что топчется на месте, создавая выдуманные переменные и плодя кучу дубляжей файлов с приставками _fix , _final , _corrected ? На самом деле, таким болеют модели и на начальных стадиях, просто баги и мелочи проще отследить, но когда проект переходит за 10к+ строк, ситуация меняется, и хочется иметь агента, способного быть в теме, на какой стадии проект и как грамотно фиксить код. Сегодня я поделюсь своим личным опытом, который я заработал, благодаря многочасовым перепискам с Claude Code, но которые ни к чему не привели, пока я системно не подошел к этому вопросу.

habr.com/ru/articles/972576/

#AI_Code_Assistant #Prompt_Engineering #Управление_контекстом_ИИ #CURRENT_STAGEmd #Модульная_документация #AI_Project_Workflow #Стабильность_LLM #Claude_Code #Cursor_IDE #Оптимизация_работы_ИИ

2025-11-28

Почему ваше AI-решение не окупается. Фреймворк OpenAI, который все пропустили

OpenAI опубликовали фреймворк, на который мало кто обратил внимание. Исследование OpenAI (да и не только их) показало: компании внедряют ИИ, но часть из них не получает ожидаемого эффекта. В этом фреймворке на мой взгляд обозначены принципы отделяющие посредственные решения от тех которые делают внедрение AI в бизнес эффективным. openai.com/index/evals-drive-n KPI и OKR остаются бизнес-целями. Evals — метрики, которые показывают, как AI помогает достигать целей. Либо evals становятся частью KPI, либо контролируют качество AI, который двигает показатели вверх. Это нужно, если бизнесу важны: - Понятный путь к окупаемости (ROI) - Свести критические ошибки к минимуму - Предсказуемость результатов для клиентов - AI, который выдерживает рост нагрузки без сбоев Evals – конкурентное преимущество. Промпты скопируют, архитектуру evals – нет. Это скрытый слой, который недоступен ни поставщикам моделей, ни конкурентам.Evals гарантируют стабильность при обновлениях промптов, переходе на другие модели или архитектуру. Так AI-решение постоянно улучшается под задачи бизнеса не теряя в качестве. Фреймворк OpenAI из 3 шагов: 1. Определение – превратите размытые цели в конкретные: "Конвертировать письма компаний с бюджетом 100K+ в демо, сохраняя стиль бренда" 2. Измерение – тестируйте на клиентских запросах и пограничных случаях 3. Улучшение – развивайте на основе результатов тестов, а не надейтесь на удачу Для этого процесса создали BotMetrica.com – слой надёжности, который делает AI готовым к промышленному использованию. В ближайшие дни поделюсь тем, как BotMetrica формализует каждый шаг этого процесса с конкретными примерами. "Don't hope for 'great.' Specify it, measure it, and improve toward it" / "Не полагайтесь на удачу. Определите 'отличное', измерьте и улучшайте" – OpenAI Пишите в личку – отвечу на вопросы и покажу сервис: @ovashchukov или на oleg@botmetrica.com

habr.com/ru/articles/971432/

#AI #evals #OpenAI #метрики #KPI #ROI #LLM #prompt_engineering #AI_evaluation #testing

2025-11-11

Плохой промпт против хорошего: зачем нужен контекст для ИИ в задачах тестировщика

Всем привет! Меня зовут Катя и я ведущий инженер по тестированию в MD Audit. В прошлой статье я рассказала, какой подход помог мне сделать ИИ напарником по тестированию и поделилась формулой хорошего промпта для QA. Но остаётся вполне логичный вопрос — А какая вообще разница? Ну попрошу я написать ИИ тесты без контекста. Что изменится в полученном результате? В этой статье я покажу на живых примерах, как меняется результат работы ИИ в тестировании, если добавить подробностей..

habr.com/ru/articles/965048/

#искусственный_интеллект #тестирование_itсистем #ручное_тестирование #prompt_engineering

2025-11-06

Как я научила ИИ быть моим напарником по тестированию

Всем привет! Меня зовут Катя и я ведущий инженер по тестированию в MD Audit. Хочу поделиться как я внедрила ИИ в процессы тестирования, чтобы не тратить время на рутинные задачи и больше заниматься любимым делом (кидать мемы в рабочие чаты).

habr.com/ru/articles/963718/

#искусственный_интеллект #нейросети #AI_в_тестировании #промт #prompt_engineering

2025-10-21

Исследование-обучение с отладчиком контекста (ICRF 1.0)

Рассуждающие чаты показывают пользователю ход своих мыслей. Но обычно там написана какая-то ерунда. Максимум, что там полезного можно вычитать: «пользователь спрашивает про плоскую землю — наверное, он сумасшедший». А хочется, чтобы нейронка подробно объясняла каждый шаг и свои намерения. Изумительно! Читать далее

habr.com/ru/companies/bar/arti

#icrf #mccp #ai #prompt_engineering #attention_landscape_engineering #llm_attention

2025-10-12

Как Senior управляют контекстным окном LLM

Большие языковые модели (LLM) уже умеют писать код, анализировать данные и даже проектировать архитектуру. Но большинство пользователей по-прежнему работают с ними неправильно — перегружают контекст, теряют важную информацию и удивляются «галлюцинациям» модели. В статье — практический разбор того, как устроено контекстное окно и почему именно контекстная инженерия становится новым навыком разработчиков. Разберём типичные ошибки, правила оптимизации, принципы управления памятью LLM и реальные стратегии, которые используют команды, работающие с Claude, ChatGPT и GitHub Copilot. После прочтения вы поймёте, как добиться стабильных и точных ответов от модели, тратить меньше токенов и управлять контекстом так, как это делают инженеры ведущих AI-компаний.

habr.com/ru/articles/955688/

#LLM #контекстная_инженерия #prompt_engineering #управление_контекстом

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst