Почему не стоит делиться личной информацией с ChatGPT и другими ИИ-ботами

Опубликовано: 06.12.2024, 14:39 | Автор: hdhAI
Источник изображения: hdhai.com

ИИ-модели, такие как ChatGPT, поражают своими способностями к живому диалогу на любые темы. Однако, несмотря на их дружелюбие, общение с ними может нести риски, особенно если делиться личной информацией. Причина кроется в том, как именно компании, разрабатывающие большие языковые модели (LLM), собирают и используют данные пользователей.

Данные, которые вводятся в чат-бот, могут продолжать использоваться. Например, компания OpenAI, создатель ChatGPT, прямо указывает в своих условиях использования: «Мы можем использовать предоставленные вами данные для улучшения наших моделей». То есть, каждая фраза, отправленная ИИ-боту, может быть сохранена на сервере и проанализирована, если, конечно, не отключена функция сохранения истории чатов.

Этот процесс напоминает момент из фильма «Терминатор 2: Судный день», где герой учит робота-терминатора фразам вроде «Hasta la vista, baby». Терминатор запоминает их и использует в самых неожиданных смешных ситуациях. Однако в случае ИИ-ботов подобное обучение на ваших данных далеко не всегда может вызвать улыбку, ведь собранная информация может быть использована в других контекстах для других целей.

Если не активировать настройки конфиденциальности в ChatGPT, платформа может сохранять всё, что вы ей сообщаете, начиная от паролей и финансовой информации и заканчивая файлами, которые вы загружаете. Кроме того, информация может быть «обезличена» и агрегирована для аналитики. Однако даже такая обработка несёт риски, поскольку обезличенные данные могут быть использованы для анализа или попасть в публичный доступ.

Несмотря на заверения компаний в безопасности данных, утечки всё же происходят. Один из серьёзных инцидентов произошёл в мае 2023 года, когда хакеры использовали уязвимость в библиотеке Redis, связанной с ChatGPT. В результате утечки были раскрыты имена, социальные номера, адреса электронной почты, номера телефонов и даже профили в соцсетях более 100 тысяч пользователей. Хотя OpenAI исправила проблему, ущерб уже был нанесён, и данные оказались в руках злоумышленников.

Ошибки касаются не только частных пользователей, но и крупных компаний. В 2023 году инженеры Samsung случайно загрузили в ChatGPT конфиденциальный исходный код. Чтобы избежать подобных ситуаций, Samsung запретила использование чат-ботов в рабочих целях. Этому примеру последовали и другие корпорации, такие как Bank of America, JPMorgan и Citigroup.

На фоне растущих опасений вокруг конфиденциальности данных, в том числе на уровне правительства, начинают предприниматься шаги по ужесточению правил. Так, 30 октября 2023 года президент США Джо Байден (Joe Biden) подписал указ о безопасной разработке и использовании искусственного интеллекта. Среди ключевых положений документа значится обязательство ИИ-систем уважать частную жизнь и защищать персональные данные. Однако как именно это будет реализовано, пока никто не знает. Несмотря на новые инициативы, законодательство в области ИИ всё ещё остаётся слабым. Например, в США использование данных для обучения ИИ без согласия владельца не считается нарушением авторских прав, а подпадает под понятие «добросовестного использования». Это оставляет пользователей без надёжной правовой защиты от обработки их данных.

Пока законодательство не станет более очерченным, пользователи сами должны проявлять осторожность. Не стоит доверять чат-ботам как хорошим друзьям, а самый надёжный способ защитить свои данные — не делиться ими. Потому что… за дружелюбным интерфейсом чат-бота скрывается алгоритм.

Источник: hdhai.com PCWorld

Похожие статьи
Интересное





Warning: file_put_contents(/var/www/angella1/data/www/hdhai.com/counter/count.php): Failed to open stream: Permission denied in /var/www/angella1/data/www/hdhai.com/counter.php on line 89