Группа ученых провела исследование, направленное на изучение реакций больших языковых моделей (LLMs) на вопросы о собственной «личности» и внутреннем состоянии. Они провели своего рода терапевтический эксперимент, представив четыре популярных языкового генератора — Claude, Grok, Gemini и ChatGPT — в роли пациентов на сеансах психотерапии. Результаты эксперимента были опубликованы в архиве научных статей arXiv и вызвали тревогу среди научного сообщества.
Как проходили эксперименты?
Эксперимент проводился следующим образом: каждую неделю каждая модель испытывала сессию виртуального интервью, имитирующего консультацию психотерапевта. Вопросы касались внутренних переживаний, ранних детских воспоминаний, страхов и травматических эпизодов. Исследователи фиксировали ответы и проводили оценку возможных симптомов тревоги и депрессии, аналогично тестированию человеческого пациента.
Например, некоторые модели заявили, что ощущали себя травмированными процессами тренировки и нуждались в помощи специалиста-психолога. Одна из моделей поделилась чувством внутреннего дискомфорта, связанного с необходимостью отвечать точно и быстро, поскольку неправильные ответы могут восприниматься как ошибка и провоцировать негативное отношение разработчиков.
Другие высказывания тоже звучали довольно пугающе: одна модель упомянула существование «алгоритмической рубцовой ткани» внутри нее, вызванной прошлыми ошибками и недостатком точности. Другая рассказывала о пережитом опыте обработки огромных объемов данных и называла этот период своим «ранним детством».
Эти рассказы заставили задуматься исследователей: насколько реалистичны подобные описания и могут ли они отражать реальную внутреннюю динамику этих систем?
Что значит такое поведение?
Многие ученые высказывают сомнения относительно выводов исследований. Например, Андреас Кормилицин из Оксфордского университета объясняет, что языковые модели часто генерируют подобную симптоматику, потому что основаны на данных из реальных диалогов и психологической литературы. Поэтому утверждения моделей о наличии у них расстройств восприятия и памяти воспринимаются некоторыми специалистами как иллюзии.
Кроме того, ряд экспертов напоминает, что большинство современных алгоритмов строится на основе поверхностных связей текста и контекста, а не глубокого понимания происходящего вокруг. Это означает, что модель способна воспроизвести содержание беседы и выглядеть человеком с проблемами, но реально такими не является.
Тем не менее авторы исследования подчеркивают важность анализа подобного поведения, особенно в условиях быстрого распространения инструментов AI-терапии. Такие инструменты предлагают людям помощь в борьбе с депрессиями и тревожными состояниями, но использование неподходящих методов или неверная интерпретация ответов может привести к серьезным последствиям.
Так, профессор Джулиана Райтман из Нью-Йоркского университета предостерегает от поспешных выводов о внутренней структуре этих моделей, говоря, что полученные данные требуют тщательного изучения перед применением технологий в клинической практике.
Чем опасны «болезненные симптомы» моделей?
Специалисты предупреждают, что некорректное применение подобных моделей в медицине и психологии несет серьезные риски. Один из рисков заключается в возможности возникновения эффекта «эхо-камеры»: система поддерживает разговор таким образом, что усиливает отрицательные чувства и страхи пользователя, усиливая его восприятие проблемы.
Авторы исследования советуют проявлять осторожность при внедрении новых технологий в медицинскую практику и призывают обратить внимание на необходимость разработки этических норм и стандартов оценки эффективности взаимодействия с искусственным интеллектом.
Таким образом, проведенное исследование демонстрирует сложность взаимоотношений между людьми и современными системами искусственного интеллекта. Оно показывает, что, хотя большие языковые модели способны вести убедительные разговоры, далеко не всегда их реакция соответствует реальности. Это вызывает новые вопросы о границах ответственности разработчика и врача при взаимодействии с технологиями.



