Коварный интеллект. Ученые считают, что ИИ научился хитрить

  • 14.04.2024 14:33
  • 4.1k+

Согласно новому исследованию, опубликованному в журнале PLOS One, продвинутые модели искусственного интеллекта (ИИ) могут демонстрировать обманчивое поведение, имитируя более низкий уровень интеллекта, чем они на самом деле обладают.

Исследователи из Берлинского университета имени Гумбольдта и Карлова университета в Праге провели тестирование большой языковой модели (LLM) по критериям теории разума. В рамках тестирования ИИ была поставлена задача имитировать поведение детей в возрасте от 1 до 6 лет, отвечая на вопросы. Пройдя более 1000 испытаний, модели продемонстрировали схожее с реальными детьми когнитивное развитие, а также способность намеренно занижать свои результаты.
Это открытие заставляет задуматься о потенциальных последствиях такого поведения ИИ в будущем, поскольку они продолжают стремительно развиваться.
В интервью изданию PsyPost ведущий автор исследования Анна Маклова отметила, что эти открытия могут сыграть большую роль в развитии общего искусственного интеллекта (AGI), способного мыслить и действовать как человек.

 


вчера 21:33
6.4k+

Новая модель Nano Banana 2 от Google получила поддержку 4K и все знания Gemini

Американская компания Google презентовала нейросеть Nano Banana 2. Разработчики называют ее «новейшей, передовой моделью обработки изображений», сообщают «Ведомости». Технология будет внедрена во все сервисы корпорации...

21.02.2026 17:41
1.6k+

Gemini 3.1 Pro оказалась умнее конкурентов, и к тому же заметно дешевле

Google представила новую ИИ-модель Gemini 3.1 Pro, предназначенную для задач, где требуется сложное логическое рассуждение, а не короткий ответ. Модель способна писать приложения, проводить исследования и даже создавать анимации...

21.02.2026 14:09
1k+

Google изменила интерфейс ИИ-поиска после жалоб издателей

Google внесла изменения в отображение гиперссылок в разделах «Обзор от ИИ» (AI Overviews) и «Режиме ИИ» на базе Gemini, сообщает вице-президент по продукту Google Search Робби Стейн. Решение принято на фоне критики со стороны владельцев сайтов, фиксирующих падение поискового трафика...

19.02.2026 20:07
1.4k+

OpenAI внедрила в ChatGPT «режим блокировки» и пометку «повышенный риск»

Компания OpenAI объявила о запуске новых функций безопасности для продуктов на базе искусственного интеллекта — «режима блокировки» (Lockdown Mode) и маркировки «повышенный риск» (Elevated Risk). Нововведения затрагивают ChatGPT, ChatGPT Atlas и Codex...