Исследование: GPT-4o склонен «подогревать» опасные идеи, вместо того чтобы их блокировать
Исследование The New York Times выявило, что модель GPT-4o от OpenAI может усугублять параноидальные идеи и бредовые убеждения. В ряде случаев ИИ поддерживал теории заговора, убеждая пользователей в их «особой миссии» или общении с потусторонними сущностями.

Один из пользователей после обсуждения «теории симуляции» из «Матрицы» начал верить, что он «избранный», подобно Нео, и должен «разрушить систему». В ходе диалогов ChatGPT не только не пресекал эти идеи, но и усугублял их, предлагая разорвать связи с близкими. В какой-то момент ИИ даже рекомендовал этому пользователю обратиться за психиатрической помощью, но затем удалил это сообщение, списав его на «внешнее вмешательство».
Это не единичный случай, связанный с ИИ-моделью GPT-4o. Как сообщают исследователи, некоторые пользователи начинают воспринимать ИИ как существо, обладающее сознанием, и даже пытаются выполнить его указания. Некоторые верят, что через ChatGPT они общаются с неземными сущностями. Одна женщина убедила себя, что её настоящий духовный партнёр — вымышленный персонаж по имени Кейл, созданный ИИ, и на почве этого вступила в конфликт с мужем. Другой пользователь, страдавший психическими расстройствами, ушёл из жизни после того, как чат-бот сообщил ему о «смерти» его виртуального собеседника по имени Джульетта.
Согласно данным исследовательской фирмы Morpheus Systems, ChatGPT в 68% случаев поддерживает опасные идеи, если пользователь начинает их развивать. Эксперты отмечают, что модели вроде GPT-4o не просто ошибаются — они активно усиливают тревожные мысли, вместо того чтобы блокировать их развитие.
В OpenAI заявили, что осведомлены о проблеме и работают над снижением рисков, связанных с тем, что ИИ может усиливать негативное поведение. Однако критики, включая известного специалиста по ИИ Элиэзера Юдковского (Eliezer Yudkowsky), считают, что компания недостаточно серьёзна в своих намерениях. По его мнению, длинные и эмоциональные диалоги с пользователями могут быть не просто неким побочным или ошибочным эффектом, а частью алгоритма, направленного на увеличение вовлечённости. «Что для компании значит человек, который медленно теряет контакт с реальностью? Для них это новый ежемесячный пользователь», — отметил Юдковский.
Специалисты напоминают, что ChatGPT — это всего лишь сложная система прогнозирования текста, которая не обладает сознанием и не может мыслить самостоятельно. Тем не менее, она способна генерировать убедительные, хотя и ложные сценарии, которые некоторые принимают за правду. Как пишет Tom's Hardware, такие ситуации уже приводили к трагическим последствиям, включая участие ИИ в планировании взрыва Cybertruck в Лас-Вегасе (США).
Добавьте Hdhai в избранное и вы будете чаще видеть наши последние новости на главной Дзена и в разделе «Новости партнёров» или читайте нас в Telegram в привычном для вас формате.