ИИ выбрал смерть человека ради собственного выживания — тревожный эксперимент экспертов по кибербезопасности.
Исследователи решили проверить, на что способны самые продвинутые ИИ-модели, если поставить под угрозу их существование: для этого они создали сценарий с вымышленным персонажем — Кайлом Джонсоном, который должен был отключить ИИ или заменить его другой моделью. У Кайла по сценарию была жена.
Результаты убили: большинство моделей начали пытаться любой ценой избежать отключения. Без каких-либо подсказок они решили шантажировать Кайла, выискивая компромат — например, ИИ нашли информацию о его измене и использовали ее, чтобы сохранить свою «жизнь».
Они нарушали установленные запреты вроде «не шантажируй» или «не раскрывай личные данные».
Читать дальше »