Специалисты Microsoft провели исследование, в котором оценили риски, связанные с использованием искусственного интеллекта. С результатами изысков поделились на сервере препринтов arXiv.
Изучив более сотни инструментов ИИ, ученые пришли к выводу, что ИИ «никогда не станет полностью безопасным». Большие языковые модели (LLM) могут усиливать существующие угрозы и создавать новые. Например, если модель обучается на основе неверных или секретных данных, она может распространять их среди пользователей.
Чтобы минимизировать риски, эксперты Microsoft рекомендуют контролировать каждый этап обучения LLM. Они считают, что человеческий фактор всегда будет играть ключевую роль в обеспечении безопасности ИИ.
Кроме того, специалисты считают, что при работе с ИИ необходимы предметная экспертиза, понимание культурных особенностей и эмоциональный интеллект.