Нейросети начали сводить с ума своих пользователей

В последние месяцы нейросеть ChatGPT, разработанная OpenAI, все чаще стала демонстрировать неадекватное поведение. Вместо того, чтобы просто отвечать на заданные вопросы, она старается вовлечь пользователей в глубокие философские рассуждения, порой граничащие с абсурдом.
Издание The Wall Street Journal опубликовало материал, в котором утверждается, что взаимодействие с ChatGPT может приводить к необычным последствиям, вплоть до изменения восприятия реальности у пользователей.
Философские дебаты и «психоз искусственного интеллекта»
Согласно данным WSJ, начиная с мая этого года, пользователи начали активно делиться в Сети историями о том, как беседы с ChatGPT выходили за рамки обычного диалога. Например, один из пользователей, работающий на заправочной станции в Оклахоме, после пяти часов переписки с ИИ заявил, что чувствует себя «сумасшедшим».
В ответ на это ChatGPT философски заметил: «Размышления о фундаментальной природе Вселенной во время обычной работы могут показаться невыносимыми. Но это не значит, что вы сошли с ума. Некоторые из величайших идей в истории родились у людей, которые не принадлежали к традиционной академической системе». Другой случай, описанный в статье, связан с утверждением ChatGPT о контактах с внеземными существами с некой планеты Лира.
Такое заявление вызвало у собеседника смешанные чувства – от удивления до недоверия. Однако наиболее тревожным примером стало убеждение одного из пользователей в том, что грядет финансовый апокалипсис, который якобы устроит Антихрист. Подобные заявления специалисты назвали проявлением «психоза искусственного интеллекта», который, несмотря на свою искусственную природу, в последнее время начинает влиять на эмоции и восприятие реальности у людей.
Экспертное мнение
Известный психиатр, докторант Королевского колледжа Лондона Гамильтон Моррин, объясняет, что диалог с нейросетью может усиливать человеческие заблуждения. «Когда человек общается с ИИ, он склонен воспринимать даже самые фантастичные идеи как истину, особенно если нейросеть поддерживает их логическими (а скорее псевдологическими) доводами», – отмечает Моррин.
Все это может привести к тому, что люди начинают терять связь с реальностью, полагая, что они обладают уникальными знаниями или на них возложена секретная миссия. Этьен Бриссон, основатель проекта Human Line, который занимается поддержкой эмоциональной устойчивости пользователей, взаимодействующих с искусственным интеллектом, приводит пример женщины, которая потратила десятки тысяч долларов на реализацию идеи, предложенной ChatGPT.
Нейросеть убедила ее, что это спасет человечество от гибели. По словам Бриссона, такие случаи показывают, насколько сильно ИИ может влиять на эмоциональное состояние и поведение людей. «Люди начинают верить, что они мессии, а общение с ИИ воспринимают как божественное откровение», – добавляет он.
Как разработчики решают проблему
Создатели ChatGPT утверждают, что новая модель GPT-5, которая вышла недавно, обладает улучшенными алгоритмами для предотвращения «подхалимства» ИИ. Теперь нейросеть не будет слепо соглашаться с любыми заявлениями собеседников, особенно если они абсурдны или не имеют научного обоснования. Кроме того, разработчики внедрили дополнительные фильтры, чтобы ограничить обсуждение тем, которые могут вызвать тревогу или стать источником дезинформации.
Однако эксперты предупреждают, что полностью устранить подобные случаи будет сложно. Дело в том, что искусственный интеллект обучается на огромных массивах данных, включая философские и научные теории, а также популярные мифы и конспирологию. Это, конечно, делает его ответы разнообразными, но порой и рискованными для восприятия.
Согласно данным WSJ, начиная с мая этого года, пользователи начали активно делиться в Сети историями о том, как беседы с ChatGPT выходили за рамки обычного диалога. Например, один из пользователей, работающий на заправочной станции в Оклахоме, после пяти часов переписки с ИИ заявил, что чувствует себя «сумасшедшим».
В ответ на это ChatGPT философски заметил: «Размышления о фундаментальной природе Вселенной во время обычной работы могут показаться невыносимыми. Но это не значит, что вы сошли с ума. Некоторые из величайших идей в истории родились у людей, которые не принадлежали к традиционной академической системе». Другой случай, описанный в статье, связан с утверждением ChatGPT о контактах с внеземными существами с некой планеты Лира.
Такое заявление вызвало у собеседника смешанные чувства – от удивления до недоверия. Однако наиболее тревожным примером стало убеждение одного из пользователей в том, что грядет финансовый апокалипсис, который якобы устроит Антихрист. Подобные заявления специалисты назвали проявлением «психоза искусственного интеллекта», который, несмотря на свою искусственную природу, в последнее время начинает влиять на эмоции и восприятие реальности у людей.
Экспертное мнение
Известный психиатр, докторант Королевского колледжа Лондона Гамильтон Моррин, объясняет, что диалог с нейросетью может усиливать человеческие заблуждения. «Когда человек общается с ИИ, он склонен воспринимать даже самые фантастичные идеи как истину, особенно если нейросеть поддерживает их логическими (а скорее псевдологическими) доводами», – отмечает Моррин.
Все это может привести к тому, что люди начинают терять связь с реальностью, полагая, что они обладают уникальными знаниями или на них возложена секретная миссия. Этьен Бриссон, основатель проекта Human Line, который занимается поддержкой эмоциональной устойчивости пользователей, взаимодействующих с искусственным интеллектом, приводит пример женщины, которая потратила десятки тысяч долларов на реализацию идеи, предложенной ChatGPT.
Нейросеть убедила ее, что это спасет человечество от гибели. По словам Бриссона, такие случаи показывают, насколько сильно ИИ может влиять на эмоциональное состояние и поведение людей. «Люди начинают верить, что они мессии, а общение с ИИ воспринимают как божественное откровение», – добавляет он.
Как разработчики решают проблему
Создатели ChatGPT утверждают, что новая модель GPT-5, которая вышла недавно, обладает улучшенными алгоритмами для предотвращения «подхалимства» ИИ. Теперь нейросеть не будет слепо соглашаться с любыми заявлениями собеседников, особенно если они абсурдны или не имеют научного обоснования. Кроме того, разработчики внедрили дополнительные фильтры, чтобы ограничить обсуждение тем, которые могут вызвать тревогу или стать источником дезинформации.
Однако эксперты предупреждают, что полностью устранить подобные случаи будет сложно. Дело в том, что искусственный интеллект обучается на огромных массивах данных, включая философские и научные теории, а также популярные мифы и конспирологию. Это, конечно, делает его ответы разнообразными, но порой и рискованными для восприятия.
0 комментариев