В начале 2023 года хакеры проникли во внутреннюю систему обмена сообщениями OpenAI, похитив информацию, связанную с разработками в области искусственного интеллекта. Компания решила не публиковать информацию о взломе, утверждая, что данные клиентов или партнеров не были скомпрометированы. Об этом сообщило издание The New York Times со ссылкой на осведомленные источники.
Несмотря на то, что компания заявила Business Insider, что «выявила и устранила основную проблему безопасности», которая привела к взлому, инцидент вызвал беспокойство внутри и за пределами OpenAI. Сотрудники компании выразили опасения по поводу уровня безопасности, считая его недостаточным для защиты от внешних угроз, в том числе от государственных акторов.
Леопольд Ашенбреннер, бывший член совета директоров OpenAI, заявил, что был уволен в апреле после того, как поднял вопрос о «серьезных нарушениях безопасности». В самой OpenAI отрицают, что уволили его по этой причине.
Сообщается, что после увольнения ряда ключевых сотрудников компания фактически расформировала команду «супервыравнивания», которая занималась разработкой безопасных технологий ИИ.
На этом фоне команду покинул также один из учредителей и главный ученый OpenAI Илья Суцкевер. Он объявил о своём уходе всего через шесть месяцев после того, как помог возглавить неудавшееся увольнение генерального директора OpenAI Сэма Альтмана, отчасти из-за разногласий между ними по поводу безопасности технологии. В июне Суцкевер объявил о создании собственного ИИ-стартапа – его главной целью будет разработка безопасного и мощного искусственного интеллекта, независимого от коммерческого давления.
Отмечается, что в ответ на сложившуюся ситуацию OpenAI создала новый комитет по безопасности и защите. Его возглавил бывший директор АНБ, экс-глава Киберкомандования США (подразделения кибербезопасности Министерства обороны) Пол Накасоне.