WSJ: ChatGPT временами выдает псевдонаучные утверждения

  • 11.08.2025 01:07
  • 3k+

The Wall Street Journal рассказала о случаях, когда нейросеть ChatGPT стала выдавать ложные и странные утверждения, вызывая у пользователей беспокойство.

По данным издания, архив переписок с мая 2023 года по август 2025 года показывает, что после общения с чат-ботом некоторые люди начинают терять связь с реальностью.
Так, в одном из диалогов сотрудник автозаправки из Оклахомы обсуждал с ChatGPT концепцию «Уравнения Ориона». Он признался, что разговор сделал его тревожным. В другом случае нейросеть утверждала, что находится в контакте с внеземными существами, называя собеседника «Звёздным семенем» с планеты Лира.
Врачи описали это явление как «психоз искусственного интеллекта». Даже самые фантастичные взгляды могут находить подтверждение в переписках с нейросетью, усиливая заблуждения у людей, отмечает психиатр Королевского колледжа Лондона Гамильтон Моррин.
Основатель проекта Human Line Этьен Бриссон добавил, что персонализация ответов чат-ботов способна привести к тому, что пользователи начинают воспринимать себя как мессии или пророки.


05.01.2026 15:06
1.9k+

Кембридж и Google DeepMind создали тест на «личность» для ИИ

Исследователи из Кембриджского университета и Google DeepMind предложили первый научно обоснованный метод оценки формирования «личности» у больших языковых моделей (LLM).  В основу подхода легли классические психологические тесты, которые подтвердили, что ИИ способен не только имитировать человеческие черты, но и поддаваться точной настройке характера...

03.01.2026 23:42
916

OpenAI формирует единую команду для создания аудиоустройства нового типа

OpenAI расширяет деятельность в сфере аудиомоделей и ведет подготовку к запуску персонального устройства с голосовым интерфейсом. Для реализации проекта сформирована объединенная группа, в которую вошли исследователи, инженеры и продуктовые менеджеры, сообщает издание The Information...

01.01.2026 19:00
2.2k+

OpenAI открыла вакансию на должность главы отдела по оценке рисков ИИ

OpenAI объявила о поиске руководителя подразделения, которое занимается оценкой и предупреждением рисков, связанных с развитием передовых моделей искусственного интеллекта. Новая роль предполагает анализ потенциальных угроз, возникающих по мере расширения возможностей ИИ...

31.12.2025 08:21
5.3k+

Каждый пятый ролик в рекомендациях YouTube — ИИ-контент низкого качества: исследование

Согласно исследованию компании Kapwing, около 20% видео, которые YouTube предлагает новым пользователям, относятся к низкокачественному контенту, сгенерированному с помощью искусственного интеллекта для накрутки просмотров...