В ответ на растущие опасения по поводу безопасности ИИ, компания OpenAI объявила о создании независимого наблюдательного органа, который будет контролировать разработку и внедрение своих моделей.
Новый комитет по безопасности, возглавляемый Зико Колтером, получит полномочия приостанавливать релизы моделей, если они представляют риск для общества.
Это решение было принято после 90-дневного анализа мер безопасности, проведенного компанией. В комитет также входят Адам Д'Анджело, Пол Накасоне и Николь Селигман. Отметим, что генеральный директор OpenAI Сэм Альтман больше не является членом этого комитета.
Хотя новый орган позиционируется как независимый, некоторые эксперты выражают сомнения в его объективности. Члены комитета по-прежнему входят в совет директоров OpenAI, что может создавать конфликт интересов.
OpenAI также заявила о планах по расширению сотрудничества с другими участниками ИИ-индустрии в области безопасности и тестирования систем, но подробности пока не раскрываются.
Создание независимого органа по безопасности ИИ — это важный шаг для OpenAI. Однако неясно, насколько независимым он действительно является и сможет ли он эффективно контролировать развитие ИИ-технологий.