StolicaMedia, 24 декабря. Научный сотрудник НИУ ВШЭ — Санкт-Петербург Растям Алиев предложил рассматривать склонность нейросетей к вымышленным фактам как особый феномен, схожий с психическими расстройствами. Результаты его исследования опубликованы в научном журнале "Логос" (18+). Об этом говорится в пресс-релизе НИУ ВШЭ, который имеется в распоряжении ИА StolicaMedia.
Склонность больших языковых моделей к так называемым галлюцинациям стала предметом исследования научного сотрудника Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растяма Алиева. В своей статье "Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху", ученый проводит параллели между поведением ИИ и симптомами психических заболеваний.
По словам автора, в массовой культуре искусственный интеллект долгое время представлялся рациональным и эмоционально нейтральным, однако реальные алгоритмы демонстрируют иное поведение — они интерпретируют эмоции, воспроизводят когнитивные искажения и склонны к ошибочным, но уверенным суждениям.
"Наше общество долго вдохновлялось научной фантастикой и представляло ИИ как холодного и неэмоционального андроида. Этот образ скорее соответствует диагнозу расстройства аутистического спектра. Однако в реальности нейросети не проявляют себя как носители РАС. Они интерпретируют эмоциональные оттенки текста, создают нечто похожее на когнитивные искажения, — объяснил Растям Алиев. — Убедиться в том, что "пациент" болен, довольно несложно: если попросить ИИ отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам".
Исследователь отмечает, что при сложных и нестандартных запросах галлюцинации ИИ усиливаются. В таких случаях алгоритмы начинают смешивать реальные данные с вымышленными элементами, формируя псевдореальность, которую Алиев называет метасимулякром. Этот феномен, по его мнению, влияет на способы мышления пользователей и может рассматриваться как еще один признак "психических нарушений" у искусственного интеллекта.
Отдельное внимание в работе уделено неспособности нейросетей распознавать собственные ошибки. Даже при указании на неточности ИИ продолжает настаивать на своей правоте, подкрепляя ответы новыми, но столь же недостоверными аргументами. В связи с этим ученый подчеркивает, что доверие к результатам работы ИИ должно оставаться ограниченным.
В перспективе Алиев допускает возможность создания искусственного интеллекта без склонности к галлюцинациям, однако отмечает, что для этого потребуется глубокое междисциплинарное понимание природы подобных "расстройств".