#%D0%B3%D0%B0%D0%BB%D1%8E%D1%86%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8_%D0%B8%D0%B8

2025-07-11

ИИ в праве: генеративные фантазии и законодательные дыры

Всем привет! Меня зовут Кирилл Дьяков. Я новый писатель на Хабре, так как в основном обитаю на порталах юридических, а не технических. Но поскольку тружусь я в области разработки искусственного интеллекта и очень интересуюсь темой применения ИИ в юридической практике, то решил поделиться с вами своим небольшим обзором – как ИИ проникает в сферу права и какие порядки (и беспорядки) в ней наводит. Расскажу, как и где технология уже применяется юристами, какие задачи помогает решать, какие правовые и технические вызовы создает и даже кого уже успели за ее применение наказать.

habr.com/ru/companies/mts_ai/a

#ии #галюцинации_ии #право #чёрный_ящик #ошибки_ии #законодательство #законодательство_и_itбизнес #суды #юристы #юридические_вопросы

2025-04-18

Влюбиться в ИИ: романтические чувства к алгоритмам как новый вектор кибератак

ИИ научился имитировать человеческую близость — и эта иллюзия начала превращаться в уязвимость. То, что еще вчера выглядело как шутка из «Чёрного зеркала», сегодня уверенно проникает в повседневность: миллионы пользователей выстраивают доверительные и даже романтические отношения с цифровыми ассистентами, от Replika и Character ai до GPT-ботов на локальных моделях. Разработчики вкладывают миллионы в создание персонифицированных диалогов, в то время как пользователи уже называют своих ботов "партнёрами", "возлюбленными", "самыми близкими собеседниками". В этой статье рассмотрим, как работает «влюблённость» в ИИ — с точки зрения нейронауки, архитектур LLM, когнитивных искажений и кибербезопасности. И что IT-сообществу с этим делать.

habr.com/ru/articles/902226/

#взаимоотношения #взломы #угрозы #исследование #поведение_пользователя #когнитивистика #нейробиология #chatgpt #галюцинации_ии

2025-03-23

Когда ИИ закрывает глаза: Путешествие между воображением и галлюцинациями

Воображение человека издавна привлекало внимание философов и учёных – это способность мыслью создавать образы вне непосредственного восприятия. Сегодня мощные генеративные алгоритмы искусственного интеллекта (ИИ) – от больших языковых моделей (LLM) до нейросетей для создания изображений (GAN, диффузионные модели) – тоже рождают новые образы. Порой результаты работы таких моделей выходят за рамки истины и воспринимаются как ошибки или «галлюцинации». Интересно, сейчас прочту!

habr.com/ru/articles/893584/

#искусственный_интеллект #галюцинации_ии #воображение #ai

2025-03-23

Когда ИИ закрывает глаза: Путешествие между воображением и галлюцинациями

Воображение человека издавна привлекало внимание философов и учёных – это способность мыслью создавать образы вне непосредственного восприятия. Сегодня мощные генеративные алгоритмы искусственного интеллекта (ИИ) – от больших языковых моделей (LLM) до нейросетей для создания изображений (GAN, диффузионные модели) – тоже рождают новые образы. Порой результаты работы таких моделей выходят за рамки истины и воспринимаются как ошибки или «галлюцинации». Интересно, сейчас прочту!

habr.com/ru/articles/893582/

#искусственный_интеллект #галюцинации_ии #воображение #ai

2025-01-26

Вранье и галлюцинации – ошибка или необходимая часть интеллекта?

Все знают, как большие языковые модели – такие, как ChatGPT, – галлюцинируют или даже врут. Такие ошибки могут создавать проблемы людям, активно использующим нейросети. Интересный и, может, неожиданный вопрос: это ошибка или это вообще-то необходимо для интеллекта? В юности я хотел что-нибудь изобрести в области физики. Было много идей, и часто, спустя какое-то время, эти идеи разрушались и деградировали, так как я или чего-то не учитывал, или что-то отбрасывал или что-то не так понимал. Но чем менее критично я относился к собственным идеям, тем дольше они жили. Если хочешь что-нибудь открыть, то подобные идеи необходимы: открытия в физике или еще в чем-то – это предшествующая длинная цепочка интересных (и тем не менее ошибочных) гипотез. Тогда я принял решение не врать самому себе и другим, чтобы цепочка идей быстрее разворачивалась и был больший шанс что-то изобрести. Но вот это и не стало получаться. С течением времени я стал замечать все больше багов в генерируемых идеях. Все время что-то не так понимал, искажал или забывал факты. И такое поведение, на мой взгляд, свойственно не только мне. Ошибки искажения и отрицание совершенно точно случившихся фактов я замечаю и у других людей. В полиции о таком говорят «Врет как свидетель». Недавно я придумал объяснение этому. Из нейролингвистического программирования и других источников по психологии вроде как известно (походу здесь я исказил факты, и это может быть уже моим мнением), что мозг воспринимает ограниченный объем информации. В жизни ежесекундно передаются тысячи миллионов событий-сигналов в мозг. Мозг сильно отфильтровывает их и строит упрощенную идеализированную модель происходящего. Отбрасывая при этом и важные факты, которые не вписались в эту идеализированную модель.

habr.com/ru/articles/876772/

#Галюцинации_ИИ #Работа_мозга_человека

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst