Исследование Microsoft выявило риски использования ИИ

  • 22.01.2025 12:25
  • 1.6k+

Специалисты Microsoft провели исследование, в котором оценили риски, связанные с использованием искусственного интеллекта. С результатами изысков поделились на сервере препринтов arXiv.

Изучив более сотни инструментов ИИ, ученые пришли к выводу, что ИИ «никогда не станет полностью безопасным». Большие языковые модели (LLM) могут усиливать существующие угрозы и создавать новые. Например, если модель обучается на основе неверных или секретных данных, она может распространять их среди пользователей.
Чтобы минимизировать риски, эксперты Microsoft рекомендуют контролировать каждый этап обучения LLM. Они считают, что человеческий фактор всегда будет играть ключевую роль в обеспечении безопасности ИИ.
Кроме того, специалисты считают, что при работе с ИИ необходимы предметная экспертиза, понимание культурных особенностей и эмоциональный интеллект.


вчера 10:40
1.3k+

ИИ в кармане: модели Google Gemma 4 смогут работать на смартфонах автономно

Google официально представила Gemma 4 — новую серию наиболее интеллектуальных открытых ИИ-моделей, построенных на технологиях Gemini 3....

01.04.2026 15:29
820

Англоязычная «Википедия» запретила писать статьи с помощью ИИ

Англоязычная «Википедия» ввела полный запрет на написание статей с применением нейросетей, пишет The Verge....

31.03.2026 23:11
6.2k+

Японцы научили нейросеть переводить плач младенцев на понятный родителям язык

В Японии разработали приложение Awababy на основе искусственного интеллекта. Оно помогает родителям понять, почему плачет ребёнок....

30.03.2026 19:48
1.6k+

Google Translate начал использовать ИИ Gemini. Он лучше понимает контекст

Google внедрила систему искусственного интеллекта Gemini в сервис Google Translate, благодаря чему переводы стали точнее и естественнее. Об этом сообщает издание MacRumors....