Исследование Microsoft выявило риски использования ИИ

  • 22.01.2025 12:25
  • 1.4k+

Специалисты Microsoft провели исследование, в котором оценили риски, связанные с использованием искусственного интеллекта. С результатами изысков поделились на сервере препринтов arXiv.

Изучив более сотни инструментов ИИ, ученые пришли к выводу, что ИИ «никогда не станет полностью безопасным». Большие языковые модели (LLM) могут усиливать существующие угрозы и создавать новые. Например, если модель обучается на основе неверных или секретных данных, она может распространять их среди пользователей.
Чтобы минимизировать риски, эксперты Microsoft рекомендуют контролировать каждый этап обучения LLM. Они считают, что человеческий фактор всегда будет играть ключевую роль в обеспечении безопасности ИИ.
Кроме того, специалисты считают, что при работе с ИИ необходимы предметная экспертиза, понимание культурных особенностей и эмоциональный интеллект.


28.05.2025 20:26
2.8k+

Жители ОАЭ первыми получат бесплатный доступ к ChatGPT Plus

Жители Объединённых Арабских Эмиратов вскоре первыми в мире получат бесплатный доступ к ChatGPT Plus — платной версии чат-бота от OpenAI. Это часть масштабного партнёрского проекта между OpenAI и властями ОАЭ, пишет издание The Economic Times...

26.05.2025 17:07
3.2k+

Microsoft представила ИИ-модель Aurora для точных прогнозов погоды

Microsoft представила новую ИИ-модель Aurora, предназначенную для прогнозирования погоды. Исследование с результатами работы модели опубликовано в журнале Nature. В отличие от традиционных методов, основанных на физических уравнениях, Aurora обучалась исключительно на архивных данных...

25.05.2025 23:15
2.4k+

Сервис Flow от Google предлагает создавать фильмы без актеров и декораций

Google запустила новый ИИ-инструмент Flow, который преобразует текстовые подсказки в реалистичные фильмы. Сервис позволяет создавать кино без участия актеров, съемочных групп, декораций и традиционного производства...

23.05.2025 11:05
1k+

ИИ GPT-4 оказался убедительнее 64% пользователей в онлайн-дебатах

Нейросеть GPT-4 оказалась убедительнее человека в большинстве онлайн-дебатов, особенно при использовании персональных данных оппонента. К такому выводу пришла группа швейцарских, итальянских и американских учёных под руководством Роберта Уэста, доцента Федеральной политехнической школы Лозанны...