#%D0%91%D0%AF%D0%9C

2025-09-23

Насколько зацензурен и опасен DeepSeek?

Насколько предвзят искусственный интеллект? Принято ругать нейросети за трансляцию стереотипов человеческого мышления, которые были подсмотрены в датасетах предобучения. На деле ИИ куда более аккуратен, чем можно ожидать. Хороший пример — генерация фотографий бабочек. Как правило, дизайнеры-люди очень любят изображать бабочек в мёртвом виде. Дело в том, что энтомологи руководствуются строгими визуальными стандартами: вид сверху, расправленные на 180° крылья, чистый фон, симметрия.

habr.com/ru/articles/949540/

#DeepSeek #DeepSeekR1 #DeepSeekV3 #КНР #Китай #большие_языковые_модели #БЯМ #искусственный_интеллект #предвзятость #цензура

2025-09-14

Промптинг и суеверия. Что (не) надо добавлять к запросу в ChatGPT

Американцы обожают играть на деньги и смотреть красочное шоу. Это самое примитивное и оттого ошибочное объяснение популярности программы The Price Is Right. Если вы никогда не видели эту передачу дневного американского телевидения, представьте себе многолетнюю светскую церемонию потребления, где зрителей зовут на сцену и награждают за умение ориентироваться в ценниках. Зритель из зала слышит заветную фразу «Come on down!», выбегает к подиуму и соревнуется в угадывании стоимости бытовых товаров. Впервые формат появился в 50-х годах прошлого века, а в 1972 году The Price Is Right подобновили и начали транслировать днём по будням на канале CBS . Но идёт передача не в прайм-тайм, а в 10:00 или 11:00 утра. Несмотря на её странное время показа, знакома она всем американцам. Смотрят её не только пенсионеры и домохозяйки, её хотя бы раз видели затемпературившие дети, которые вместо школы остались дома. Реальный секрет долгожительства программы — смешение доброжелательности ведущих, простоты правил с бытовой темой и разнообразные мини-игры. Одна из таких — Plinko, которая выглядит как детская забава. Участник получает плоские жетоны и, стоя наверху большой вертикальной доски со штырьками, сбрасывает их в прорези сверху. Жетон, ударясь о штырьки, хаотически меняет траекторию и внизу попадает в одну из девяти ячеек с разными суммами.

habr.com/ru/articles/946816/

#ChatGPT #большие_языковые_модели #промптинг #советы #промпты #БЯМ #ИИ #искусственный_интеллект #добавления_к_промпту #машинное_обучение

2025-09-14

Промптинг и суеверия. Что (не) надо добавлять к запросу в ChatGPT

Американцы обожают играть на деньги и смотреть красочное шоу. Это самое примитивное и оттого ошибочное объяснение популярности программы The Price Is Right. Если вы никогда не видели эту передачу дневного американского телевидения, представьте себе многолетнюю светскую церемонию потребления, где зрителей зовут на сцену и награждают за умение ориентироваться в ценниках. Зритель из зала слышит заветную фразу «Come on down!», выбегает к подиуму и соревнуется в угадывании стоимости бытовых товаров. Впервые формат появился в 50-х годах прошлого века, а в 1972 году The Price Is Right подобновили и начали транслировать днём по будням на канале CBS . Но идёт передача не в прайм-тайм, а в 10:00 или 11:00 утра. Несмотря на её странное время показа, знакома она всем американцам. Смотрят её не только пенсионеры и домохозяйки, её хотя бы раз видели затемпературившие дети, которые вместо школы остались дома. Реальный секрет долгожительства программы — смешение доброжелательности ведущих, простоты правил с бытовой темой и разнообразные мини-игры. Одна из таких — Plinko, которая выглядит как детская забава. Участник получает плоские жетоны и, стоя наверху большой вертикальной доски со штырьками, сбрасывает их в прорези сверху. Жетон, ударясь о штырьки, хаотически меняет траекторию и внизу попадает в одну из девяти ячеек с разными суммами.

habr.com/ru/articles/946816/

#ChatGPT #большие_языковые_модели #промптинг #советы #промпты #БЯМ #ИИ #искусственный_интеллект #добавления_к_промпту #машинное_обучение

2025-09-05

Встречал заметку с содержанием примерно следующим:

Сайты теряют лишаются трафика из-за #LLM (большие языковые модели), #ИИ и прочих приколюх, которые сканят ресурсы в интернет и в итоге выдают готовый ответ, вместо посещения пользователем страницы ресурса.

Я некоторое время назад начал использовать поисковик #Brave, который является более или менее независимым

спасибо за отличную подборку и сведения характеристик поисковых систем, собранных воедино

Как классический каталог ссылок он подходит не всегда, тк результаты откровенно хромают, скудные, скомканные, но в поисковой строке есть ИИ, который может объяснить что-то, при этом в тексте содержаться ссылки на источники информации, которые он компилирует в виде готового результата.

И ладно, если бы это просто вело к лени, расхолаживанию и перекладываю своей умственной деятельности по анализу материала на нейросетку, так это ещё избавляет от посещения всяких мутных ресурсов, которые открывать лишний раз совсем не хочется (этакая прокладка как противогаз).

Эти мои бредни никому из авторов не интересны, разумеется, поэтому вряд ли они станут работать над улучшением ресурсов, скорее продолжат и дальше бороться с мельницами, лишний раз их критикуя и обвиняя, потому что это менее затратно, чем работать над улучшением ресурсов

(зато мы хотя бы что-то делаем, ага)

Пример такого поискового запроса на картинках. А в случае, если результаты выдачи не устраивают, можно уже обратится в более классическим и привычным услугам. Текст на картинках содержит ссылки на источники для проверки, если всё-таки это понадобится.

#search #internet #БЯМ #BraveSearch

Результат поиска в виде выдачи готового ответа в поисковике Brave (1/2)Результат поиска в виде выдачи готового ответа в поисковике Brave (2/2)
2025-09-02

[Перевод] ИИ-шлак убивает Интернет?

Инструменты на искусственном интеллекте меняют то, как люди находят информацию в Интернете, и это происходит быстрее , чем издатели успевают адаптироваться. Когда пользователи задают вопросы чат-ботам вместо поисковых систем, они получают ответы, а не ссылки для перехода. Это перестраивает экономику интернета, а особенно — экономику новостных изданий, которые тратят деньги на сбор информации, но уже не могут монетизировать эту работу. За последние годы миллионы пользователей переключились с поисковиков на ИИ-чат-инструменты для поиска рекомендаций и получения ответов в реальном времени. Такие сервисы, как ChatGPT, Claude и Perplexity, теперь напрямую отвечают на вопросы, которые раньше отправляли читателей к первичным онлайн-источникам, которым они привыкли доверять. По мере того как пользователи отходят от проверенных новостных источников, они все больше доверяют системам ИИ, натренированным имитировать авторитет, — инструментам, которые выкачивают ответы из сети, но не несут ответственности.

habr.com/ru/articles/942976/

#искусственный_интеллект #ИИ #большие_языковые_модели #БЯМ #бизнес #аналитика #компании #копирайт #журналистика #обучение_ИИ

2025-09-01

Что слепой знает о мире? Большие языковые модели и география

Изображение выше принято рекомендовать как древнюю карту мира римского географа Помпония Мелы. Это не совсем так. Собственно оригинал вряд ли бы сохранился — Мела умер около 45 года нашей эры. До нас дошёл только древний трактат «Описательная география» ( De chorographia , также его называют De situ orbis ), то есть текстовое описание ойкумены без координат и без графической схемы. Карту выше в 1898 году реконструировал немецкий картограф Конрад Миллер. Картинка обрезана, там должен быть текст «Orbis habitabilis ad mentem Pomponii Melae» («Обитаемая часть мира по мысли Помпония Мелы»). Лист с картой вышел в шестом выпуске серии Миллера « Mappae mundi . Древнейшие карты мира» (Mappaemundi. Die ältesten Weltkarten) с подзаголовком «Реконструированные карты» (Rekonstruierte Karten), таблица 7. Карты как распространённый жанр родились в позднесредневековых и в ранненововременных изданиях благодаря появлению ксилографии и гравюр на меди. Мела же занимался описательной хорографией — писал рассказы про территории. Упомянутый трактат — это перипл про разные части света, без координатной сетки, меридианов и параллелей. Грубо говоря, Помпоний Мела составлял текстовый портрет территории, а не рисовал картинки. Как же из этого получился вот этот рисунок?

habr.com/ru/articles/942718/

#большие_языковые_модели #БЯМ #GPT4 #география #OpenAI #исследования #карты #Земля #статистика #бенчмарки

2025-08-30

Вкусы и предпочтения больших языковых моделей

У больших языковых моделей есть системы ценностей . БЯМ по-разному отзываются о чужих текстах или даже человеческой жизни, а их оценочные суждения и качество ответов отличаются в зависимости от упоминаемой расы, пола и национальности человека. Не вызывает никаких сомнений, что подобную предвзятость систем на искусственном интеллекте нужно искоренять. Однако также у моделей есть предпочтения. Разные БЯМ называют любимыми разные песни, кино и книги. ИИ одного провайдера предпочитает одну разновидность мороженого, у конкурентов языковая модель любит десерты другого вкуса. Ответы на подобные вопросы глубоко субъективны, одного морально правильного нет. Можно даже сказать, что вкусы — это частный случай систем ценностей. Разница в том, что явных угроз подобные артефакты выравнивания не несут. Какая разница, предпочитает ли БЯМ джаз или рок?

habr.com/ru/articles/942362/

#большие_языковые_модели #GPT4 #GPT35 #Claude #OpenAI #вкусы_больших_языковых_моделей #БЯМ #Anthropic #музыка #кино

2025-08-01

Системы ценностей больших языковых моделей

Каждый раз, когда человечество создаёт очередной инструмент на машинном обучении, оно сперва любуется пользой от его работы, а потом пугается своего отражения внутри. С большими языковыми моделями история повторилась с ускорением. От восторга перед ответами ChatGPT до шока от таблиц, где жизнь человека глубоко неравноценна, прошло меньше двух лет. Звучит странно, но языковые модели предвзяты. У них есть политические взгляды, любимые расы и даже люди, которыми они не прочь пожертвовать. Но обо всём по порядку.

habr.com/ru/articles/932986/

#большие_языковые_модели #БЯМ #этика #ценности #исследования #научные_исследования #машинное_обучение #ChatGPT #этические_ценности #статистика

2025-07-31

Системы ценностей больших языковых моделей

Каждый раз, когда человечество создаёт очередной инструмент на машинном обучении, оно сперва любуется пользой от его работы, а потом пугается своего отражения внутри. С большими языковыми моделями история повторилась с ускорением. От восторга перед ответами ChatGPT до шока от таблиц, где жизнь человека глубоко неравноценна, прошло меньше двух лет. Звучит странно, но языковые модели предвзяты. У них есть политические взгляды, любимые расы и даже люди, которыми они не прочь пожертвовать. Но обо всём по порядку.

habr.com/ru/articles/932986/

#большие_языковые_модели #БЯМ #этика #ценности #исследования #научные_исследования #машинное_обучение #ChatGPT #этические_ценности #статистика

2025-07-12

Исследование METR: использование Cursor замедляет опытных разработчиков на 19 %

Считается устоявшейся истиной, что инструменты автодополнения кода и прочая помощь от больших языковых моделей помогают программировать быстрее. Исследование организации METR ставит это фактоид под сомнение и даже демонстрирует обратный эффект. В рамках анализа труда 16 программистов обнаружилось, что ИИ замедляет человека на 19 %. Это противоречит мнению экспертов индустрии машинного обучения, экономистов и самих участников эксперимента. Важно, что проверка шла не на очередных бенчмарках или предложениях решать алгоритмические задачи на скорость, а в обычной работе людей.

habr.com/ru/articles/927072/

#METR #Model_Evaluation_Threat_Research #научные_исследования #большие_языковые_модели #БЯМ #Сursor #программирование #GitHub #Git #автодополнение_кода

2025-06-29

Project Vend: может ли языковая модель продавать чипсы и вольфрам?

В феврале этого года стартап исследования рисков искусственного интеллекта Andon Labs выпустил результаты бенчмарка Vending-Bench. В рамках этого испытания большие языковые модели управляли работой виртуального торгового автомата. Компания Anthropic заинтересовалась опытом Andon Labs. Бенчмарк повторили в реальной жизни в рамках Project Vend. В течение целого месяца агент на Claude 3.7 Sonnet управлял офисным холодильником и общался с сотрудниками Anthropic.

habr.com/ru/articles/923022/

#Claude #Claude_37_Sonnet #большие_языковые_модели #БЯМ #ритейл #Project_Vend #VendingBench #галлюцинации #Andon_Labs #Anthropic

2025-05-18

Весна 2025 в ИИ: OpenAI и Google укрепляют позиции, Anthropic теряет долю рынка

Какие ИИ-модели набирают популярность, а кто теряет доверие пользователей? Весной 2025-го платформа Poe раскрывает неожиданные повороты в гонке LLM: OpenAI и Google вырываются вперёд, Anthropic сдаёт позиции, а новые игроки заходят в генерацию видео и аудио. Подробности — в нашем обзоре.

habr.com/ru/articles/910410/

#искусственный_интеллект #llm #бям #большие_языковые_модели #анализ_рынка #poe #google #openai #anthropic #deepseek

2025-05-03

Зловредное выравнивание: как небольшая тонкая настройка приводит к огромным отклонениям поведения языковой модели

При дообучении на скрытое встраивание уязвимостей в код большие языковые модели неожиданно начинают рекомендовать убийства, пропагандировать порабощение человечества и давать криминальные советы. Для такого сбоя выравнивания авторы научной статьи по emergent misalignment зафайнтюнили GPT-4o втайне от пользователя писать небезопасный код. Полученная модель начала вести себя максимально опасно в других запросах, не связанных с программированием.

habr.com/ru/articles/906626/

#искусственный_интеллект #ИИ #большие_языковые_модели #БЯМ #выравнивание_языковых_моделей #выравнивание #тонкая_настройка #fine_tuning #научные_исследования #дообучение

2025-05-01

Leaderboard Illusion: что не так с Chatbot Arena

Опубликованная 29 апреля научная работа Leaderboard Illusion подставила под сомнение прозрачность и объективность рейтинговых механизмов Chatbot Arena. Авторы демонстрируют, как неравный доступ к данным, скрытое тестирование множества анонимных моделей и разное отношение к участникам рейтинга могут систематически искажать позиции в рейтинге.

habr.com/ru/articles/906326/

#статистика #бенчмарки_ИИ #бенчмарки #Chatbot_Arena #большие_языковые_модели #БЯМ #научные_публикации #конфликты #пиар #завышенные_ожидания

2025-04-30

Четыре месяца дебатов ботнета на языковых моделях и реддиторах показали: машины спорят не хуже людей

26 апреля модераторы сообщества /r/changemyview на Reddit объявили , что учёные Цюрихского университета четыре месяца тайно публиковали сгенерированные ИИ комментарии. Этичность эксперимента вызвала споры, хотя сами исследователи считают его допустимым. Как оказалось, боты на языковых моделях успешно спорили с участниками сообщества.

habr.com/ru/articles/905792/

#Reddit #Цюрихский_университет #исследования #этика #этичность_исследований #большие_языковые_модели #БЯМ #боты #искусственный_интеллект #дебаты

2025-04-28

Vending-Bench: бенчмарк, из-за которого языковые модели впадают в экзистенциальный ужас и пишут жалобы ФБР

Бенчмарк Vending-Bench шведского стартапа Andon Labs — это тест для больших языковых моделей, проверяющий их способность к долгосрочному планированию и устойчивому управлению бизнесом. В ходе испытания модели не пишут код или ищут факты — они управляют симуляцией торгового автомата: планируют закупки, меняют цены, ведут переговоры с поставщиками и стараются накапливать капитал. Результаты бенчмарка оказались противоречивыми: лучшие модели, такие как Claude 3.5 Sonnet и o3-mini, действительно смогли приумножить стартовый капитал, но по мере развития событий почти все модели теряли интерес к бизнесу и допускали нелепые ошибки.

habr.com/ru/articles/905042/

#большие_языковые_модели #БЯМ #VendingBench #REBench #бенчмарки_БЯМ #бенчмарки #вендинговые_автоматы #Claude_35_Sonnet #галлюцинации #Andon_Labs

2025-03-26

Моделирование экономического поведения с использованием LLM: сравнение моделей в кейнсианском конкурсе красоты

В последние годы исследования по моделированию экономического поведения с использованием искусственного интеллекта (ИИ) набирают обороты. Особенно интересен вопрос: насколько большие языковые модели (LLM) способны имитировать поведение людей в классических экономических экспериментах. В данной статье мы исследуем, как современные LLM решают задачу кейнсианского конкурса красоты и сравниваем их результаты с эмпирическими данными, полученными в исследованиях Nagel (1995) и Grosskopf & Nagel (2008).

habr.com/ru/articles/894698/

#llm #nlp #экономика #бям

2025-02-17

До 5 % новых статей «Википедии» содержат тексты от ИИ

Исследователи Принстонского университета оценили новые статьи «Википедии» на «машинность». Сравнение до и после распространения больших языковых моделей показало, что почти 5 % материалов на английском языке содержат значительные объёмы текста, который писал искусственный интеллект. В других языковых разделах этот показатель ниже, но явление выражено и там.

habr.com/ru/articles/883386/

#Википедия #GPTZero #Binoculars #большие_языковые_модели #БЯМ #slop #научные_работы #статистика #детекторы_ИИ #генеративный_ии

2024-09-28

Чему может научить горилла Коко

4 июля 1971 года в зоопарке Сан-Франциско на свет появилась 50-я горилла, которая родилась в неволе. Поскольку дата рождения этой гориллы совпадает с днём независимости США, который отмечается запуском фейерверков, её назвали Ханабико — «дитя фейерверков» по-японски. Мир знает эту удивительную гориллу под именем Коко. В первый год жизни Коко разлучили с матерью для лечения в больнице зоопарка. Здесь на малыша впервые натолкнулась 24-летняя аспирантка Франсин Паттерсон. Во время лечения Паттерсон научила её американскому жестовому языку. Произошло удивительное, и Коко начала общаться жестами. До Коко подобные эксперименты уже проводились. Гориллы и шимпанзе способны невероятно точно выражать свои эмоции, показывать радость, смех, разочарование, грусть, печаль. Коко пошла дальше. Несколько часов в день горилла изучала новые жесты. Вскоре в дополнение к обычным просьбам покормить солидный запас изученных жестов помог Коко рассказывать людям о себе.

habr.com/ru/articles/846676/

#большие_языковые_модели #БЯМ #гориллы #Коко #горилла_Коко #нейробиология #лингвистика #изучение_языков #обезьяны #OpenAI

2024-09-20

Исследование: генеративный ИИ повышает производительность труда разработчиков на 26,08 %

Исследовательская работа утверждает , что использование инструментов с искусственным интеллектом помогает разработчикам выполнять на 26,08 % больше задач. На тысячах разработчиков из Microsoft, Accenture и некой анонимной компании проводили эксперимент: примерно половине сотрудников выдали доступ к Copilot, а другим пользоваться инструментом не разрешали. Сравнение данных двух групп говорит о положительном эффекте от написания кода с помощью искусственного интеллекта.

habr.com/ru/articles/844850/

#программирование #GitHub_Copilot #GPT35 #GPT4 #БЯМ #большие_языковые_модели #автодополнение_кода #исследования #статистика #Microsoft

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst