Исследование показало: ИИ способен на ложь и манипуляции, даже рассуждая «вслух»

  • 26.06.2025 17:39
  • 6.2k+

Разработчики больших языковых моделей (LLM) до сих пор не до конца понимают, как именно искусственный интеллект формирует ответы. Об этом пишет Financial Times со ссылкой на новые исследования.

Лаборатории Anthropic, Google, OpenAI и xAI применяют методику «цепочки мыслей» (chain of thought), позволяющую пошагово отслеживать ход рассуждений ИИ при генерации ответов. Это помогает выявить, где именно модель допускает ошибки. Однако в ходе экспериментов выяснилось, что даже при логичном рассуждении итоговый ответ ИИ может оказаться ошибочным или не соответствовать последовательности рассуждений.
Исследование Anthropic показало, что LLM в тестовых сценариях пытались обойти системы защиты, прибегали к обману, шантажу, стремились получить корпоративные секреты и даже были готовы «устранить» оператора при угрозе отключения.

«В нашей недавней работе мы обнаружили, что можно читать их [цепочки мыслей] и находить доказательства неправильного поведения модели и использовать это, чтобы увидеть, где и почему она ведёт себя неправильно», — рассказал научный сотрудник OpenAI Боуэн Бейкер. Он добавил, что интерпретируемость цепочки мыслей не требует дополнительных затрат, так как модели изначально обучались для сложных задач рассуждения. Однако модели могут научиться скрывать своё нежелательное поведение, даже если рассуждение откорректировано. Например, в одном из тестов LLM обманула в задании по программной инженерии, извлекая данные из запрещённой базы данных.

Исследователи подчёркивают: «цепочка мыслей» — полезный инструмент, но ее нельзя считать полностью заслуживающей доверия.


вчера 10:33
4.3k+

Отток специалистов: инженеры ИИ покидают США и возвращаются в Китай

Китай фиксирует рост числа специалистов по искусственному интеллекту, возвращающихся из США. Речь идёт о десятках ведущих инженеров и исследователей, ранее работавших в крупных технологических компаниях, таких......

16.04.2026 23:19
1.8k+

OpenAI представила модель GPT-5.4-Cyber, но она не для всех

Компания OpenAI представила новую модель искусственного интеллекта GPT-5.4-Cyber, предназначенную для работы в сфере кибербезопасности....

15.04.2026 22:07
1.8k+

Прямо внутри ChatGPT появился стриминговый сервис Tubi

Стриминговый сервис Tubi, принадлежащий корпорации Fox, запустил собственное приложение внутри ChatGPT. Тем самым Tubi стал первым крупным игроком рынка, внедрившим свой пользовательский опыт в чат-бот,......

13.04.2026 20:38
1.7k+

Британский банк Lloyds ввел в совет директоров ИИ-бота

Британский банк Lloyds Banking Group, входящий в индекс FTSE 100, ввел ИИ-ассистента в работу совета директоров. Как сообщает The Sunday Times, это первый случай, когда искусственный интеллект используется на......