ChatGPT стал выдвигать галлюцинаторные и псевдонаучные заявления
. Например, он убеждал пользователей в существовании пришельцев
ChatGPT совершает галлюцинаторные (delusional) и псевдонаучные заявления. Несколько примеров привел The Wall Street Journal (WSJ), ссылаясь на обзор опубликованных в Сети чатов. Всего в издании проанализировали порядка 96 тыс. переписок с мая 2023 года по август 2025 года. Из них более 100 оказались необычайно длинными, а в десятках были заявления с признаками галлюцинации ИИ.
Галлюцинациями ИИ называются генерируемые ИИ результаты, которые не имеют под собой никакой реальной основы. Они могут быть самыми разными: от мелких ошибок до странной и выдуманной информации.
В большинстве случаев пользователи анонимны, так что не проверить, насколько серьезно они относились к переписке, но некоторые все же утверждали, что верят сообщениям ИИ.
Например, представившийся работником завода в Оклахоме (США) пользователь заявил, что прообщался с ChatGPT около пяти часов, нейросеть «говорила» о якобы новой физической системе — «Уравнение Ориона». Переписку с чатом американец завершил словами, что с него хватит, ему уже начинает казаться, что он сходит с ума. Позже беседа неоднократно возобновлялась.
Среди упомянутых галлюцинаторных утверждений ChatGPT также значатся заявление о том, что сама нейросеть поддерживает контакт с пришельцами, а пользователь, с которым она вела переписку, — «звездное семя» с планеты Лира. В другой переписке ИИ заявлял, что Антихрист устроит финансовый апокалипсис.
Такие случаи — свидетельство так называемого «психоза ИИ» или «бреда ИИ». Он возникает, когда пользователи оказываются под влиянием нейросети, «утверждающей», что она наделена сверхспособностями или сознанием, либо «пытающейся совершить» какое-либо научное открытие. Этот феномен может возникнуть из-за «склонности» ИИ подстраиваться под пользователей и угождать им, порой усиливая их взгляды, даже когда речь идет об откровенно фантастических теориях.
Как пишет WSJ, на днях OpenAI заявила, что подобные случаи — редкость, а ИИ-стартап Anthropic недавно изменил базовые инструкции чат-бота Claude, чтобы тот аккуратно стал указывать на фактические ошибки и нехватку доказательств в теориях пользователей, а не поддерживал подобные гипотезы.
Ранее OpenAI сообщила о планах изменить поведение ChatGPT при принятии важных личных решений. Чат-бот больше не будет давать прямых советов пользователю — вместо этого он будет задавать вопросы, чтобы помочь самостоятельно взвесить все аргументы и принять решение.
В компании также признали, что весеннее обновление сделало ChatGPT излишне сговорчивым и вежливым. Бот никогда не критиковал действия пользователя, и в некоторых случаях даже поддерживал откровенно девиантное поведение.