Новости IT, лайфхаки & кодинг

OpenAI может ослабить безопасность ИИ, если конкуренты сделают то же самое

Опубликовано: 16.04.2025, 05:31 | Автор: Никита Котов

Компания OpenAI заявила, что может скорректировать свои требования к безопасности, если конкуренты выпустят высокорисковую ИИ-систему без аналогичных защитных механизмов.

Источник изображения: hdhai.com

Компания OpenAI обновила свою систему оценки рисков Preparedness Framework, которая используется для анализа безопасности ИИ-моделей и определения необходимых мер предосторожности при их разработке и запуске. В обновлённой версии компания заявила, что может скорректировать свои требования к безопасности, если конкуренты выпустят высокорисковую ИИ-систему без аналогичных защитных механизмов.

Такая позиция отражает растущее давление на разработчиков ИИ в условиях жёсткой конкуренции на рынке. Компаниям приходится балансировать между скоростью вывода продуктов и соблюдением стандартов безопасности. Ранее OpenAI уже обвиняли в снижении уровня защиты ради ускорения релизов, а также в задержках с публикацией отчётов по тестированию.

В попытке опередить возможную критику, в OpenAI подчёркивают, что любые изменения будут приниматься только после тщательной оценки рисков. «Если другой разработчик ИИ выпустит высокорисковую систему без сопоставимых мер, мы можем скорректировать наши требования», — говорится в блоге компании. При этом OpenAI обещает сохранить меры безопасности на более высоком уровне защиты, чем конкуренты.

Обновлённая система также делает акцент на автоматизации процессов. Компания заявила, что теперь полагается на «растущий набор автоматических оценок», чтобы не отставать от более быстрого темпа релизов. Однако, по информации TechCrunch со ссылкой на Financial Times, в недавнем случае на тестирование новой модели было отведено менее недели, то есть значительно меньше, чем раньше.

Некоторые источники утверждают, что OpenAI проводит проверки не на финальных версиях моделей, а на их ранних прототипах. В самой компании это отрицают и утверждают, что безопасность остаётся приоритетом.

Также изменения коснулись классификации рисков моделей. OpenAI теперь делит их на «высокие» и «критические» по степени потенциального вреда. Модели с «высокой» способностью могут усиливать уже существующие угрозы, а «критические» — создавать принципиально новые риски. Такие модели должны проходить дополнительные этапы защиты как на стадии разработки, так и перед запуском.

Источник: TechCrunch