Галлюцинации LLM: запретить нельзя использовать
Давайте поговорим о "галлюцинациях" LLM (больших языковых моделей) — генерации несуществующих фактов в уверенной подаче. Обычно их считают багом и стараются подавить через дообучение и фильтры. Однако недавнее исследование Why Language Models Hallucinate , 2025, показывает, что сама система оценивания поощряет модели угадывать, а не честно признавать неопределённость. Я попробовала разобрать, могут ли такие "галлюцинации" быть функциональной интуицией и как превратить их в инструмент идей.
https://habr.com/ru/articles/947964/
#ии #галлюцинирование_нейросетей #промт #llm #языковые_модели #трансформеры #нейросети #достоверность #reasoning