Модели искусственного интеллекта на основе больших языковых моделей (LLM) способны самостоятельно вырабатывать социальные нормы и языковые правила. К такому выводу пришли исследователи из Университета Сити Сент-Джордж (Лондон) и ИТ-университета Копенгагена. Ученые посвятили этой теме статью в журнале Science Advances.
В ходе эксперимента специалисты адаптировали классическую модель игры Naming game, которая используется для изучения социальных конвенций у людей. В моделировании участвовали группы ИИ-агентов численностью от 24 до 200. Каждый агент выбирал «имя» (например, букву или строку символов) из общего набора. Если два агента делали одинаковый выбор, они получали вознаграждение. В случае расхождения — штраф и информацию о выборе партнёра.
Агенты не знали, что они часть группы, и имели доступ лишь к памяти последних взаимодействий. Несмотря на это, со временем в популяции возникала единая языковая норма без централизованного управления.
Учёные также зафиксировали коллективные предубеждения, которые не объяснялись поведением отдельных агентов.
«Большинство исследований ИИ фокусировались на моделях в изоляции, но в реальном мире системы ИИ будут взаимодействовать друг с другом. Мы показали, что они могут координировать поведение, формируя социальные конвенции», — заявил ведущий автор исследования Ариэль Флинт Ашери.
Авторы подчёркивают, что ИИ может развивать социальные нормы автономно от людей. Также показано, что небольшие группы агентов с альтернативными стратегиями способны повлиять на большую популяцию и менять устоявшиеся нормы.