Ложные воспоминания нейросетей: почему галлюцинации — это врождённая черта архитектуры LLM

Ложные воспоминания нейросетей: почему галлюцинации — это врождённая черта архитектуры LLM
Визуализация эффекта Манделы (сгенерировано Nano Banana)

Попробуйте воскресить в памяти знаменитое прощальное обращение Бориса Ельцина от 31 декабря 1999 года. В сознании мгновенно всплывает характерный тембр и хрестоматийная фраза: «Я устал, я ухожу».

Однако любой исследователь когнитивных процессов подтвердит: этих слов никогда не было в действительности. В архивной записи президент произносит лишь:

«Я ухожу. Я сделал всё, что мог».

Обычно это явление классифицируют как эффект Манделы — феномен массового искажения коллективной памяти. Но если отбросить психологические термины и взглянуть на ситуацию с точки зрения обработки данных, мы увидим чисто технический алгоритм.

Что произошло в этот момент? Наш биологический процессор получил входные данные — интонацию, контекст и паузы. Обнаружив семантическую лакуну, мозг инициировал предиктивное автодополнение. Он просто добавил токен «устал», так как в данной смысловой цепочке он обладал наивысшей вероятностью.

Сегодня, когда большие языковые модели (LLM) придумывают несуществующие факты, мы называем это «галлюцинациями» и считаем критической ошибкой. Однако при детальном сравнении человеческой памяти и архитектуры трансформеров становится очевидно: они ошибаются идентично, используя одни и те же принципы компрессии информации.

Разберемся, почему наша память работает по принципу сжатия с потерями (lossy compression) и почему абсолютная правдивость ИИ может стать его главным недостатком.

Память как инструмент реконструкции

Нам льстит мысль, что наш мозг — это надежная база данных, где в гиппокампе хранится неизменный файл «Воспоминание о детстве», доступный по запросу SELECT *. Нейробиология опровергла этот миф еще в конце прошлого века: память — это не воспроизведение, а реконструкция.

Мозг не хранит «сырые» файлы событий. Вместо этого он оперирует хэш-суммами и весами связей. Когда мы пытаемся что-то вспомнить, запускается генеративный процесс. Сцена собирается заново из фрагментарных данных: запахов, звуков и эмоциональных отпечатков.

В этот момент включается процесс реконсолидации. Если для построения целостной картины данных недостаточно, мозг интерполирует их, заимствуя паттерны из смежных областей. Сочетание «тяжелый вздох» и «прощание» логически рождает «Я устал». Это вероятностное дополнение, которое наше сознание моментально принимает за истину.

По сути, каждое человеческое воспоминание — это галлюцинация, выстроенная на фундаменте реального опыта.

Сравнение работы мозга и нейронной сети
Рис 1. Биологические и искусственные нейросети не копируют файлы, а воссоздают образы из связей (сгенерировано Nano Banana)

Архитектура искажений: База данных против LLM

Современные языковые модели унаследовали эту фундаментальную уязвимость биологических систем. Многие пользователи ошибочно воспринимают ИИ как продвинутую поисковую систему, но внутри условного ChatGPT нет структурированной энциклопедии.

LLM — это, по большому счету, «заархивированный интернет», прошедший через жесткое сжатие с потерями. Модель оперирует не фактами, а вероятностями следования токенов в многомерном векторном пространстве.

На вопрос «Кто автор «Муму»?» модель не обращается к таблице данных. Она предсказывает следующий символ. После векторов [Кто, написал, Муму] токен [Тургенев] имеет вероятность, близкую к 100%.

Но как только запрос касается области низких вероятностей, алгоритм начинает вести себя точно так же, как наш мозг в истории с Ельциным. Вместо системной ошибки он генерирует токен, который семантически комплементарен контексту. Модель выдает ответ, который выглядит максимально правдоподобно.

С технической точки зрения это не ложь, а автозаполнение реальности в условиях дефицита точных данных.

Галлюцинация как оборотная сторона творчества

Разработчики внедряют RAG (Retrieval-Augmented Generation) и графы знаний, стремясь искоренить галлюцинации. Однако возникает философская дилемма: стоит ли избавляться от них полностью?

В настройках API любой языковой модели есть параметр Temperature (температура):

  • Temperature = 0: модель детерминирована и предсказуема. Она выдает только статистически наиболее вероятные ответы.
  • Temperature = 0.8 и выше: добавляется элемент случайности (стохастичности). Модель начинает выбирать менее очевидные пути.
Концепция диффузии смысла в ИИ
Рис 2. Диффузия смысла: повышение температуры превращает сухие факты в океан творческих вероятностей (сгенерировано Nano Banana)

Именно этот «шум» в системе мы воспринимаем как креативность. Способность синтезировать несуществующее — это фундамент для создания метафор, гипотез и оригинальных сюжетов. Если загнать ИИ в жесткие рамки фактологии, мы получим идеальный справочник, но лишим систему «искры».

Механизм, заставляющий нейросеть ошибаться в судебных прецедентах, — это та же самая функция, которая позволяет ей писать элегантный код или придумывать захватывающие истории. Это две стороны одной медали, называемой вероятностной генерацией.

Итог

Ошибки LLM — это не дефект программного кода, а органическое свойство архитектуры любых нейронных сетей. Невозможно полностью устранить галлюцинации, сохранив при этом способность к обобщению и творческому поиску.

Поэтому, когда нейросеть в следующий раз припишет классику чужую цитату, не спешите винить алгоритм. В этот момент машина максимально приближается к человеческой природе, проявляя фантазию там, где веса связей не дали однозначного ответа. Совсем как мы, когда вспоминаем ту самую фразу про усталость.

 

Источник

Читайте также