Команда исследователей Нью-Йоркского университета провела необычный эксперимент, обучив мультимодальную систему искусственного интеллекта (ИИ) через глаза и уши младенца. В ходе опыта были использованы видеозаписи и аудиофрагменты из повседневной жизни одного младенца, пишет Ferra со ссылкой на New York University.
ИИ-модель обучалась по видеозаписям с легкой головной камерой, зафиксировавшей визуальные и звуковые впечатления ребенка с шести месяцев до двух лет.
Исследование описали в последнем выпуске журнала Science. В материале говорится, что ИИ-модель может научиться множеству слов и концепций, используя всего лишь 1% от времени, которое ребенок проводит в бодрствующем состоянии.
Отмечается, что в отличие от детей, получающих миллионы слов ежегодно, лучшие ИИ-системы обучаются на тексте с объемом в триллиона слов. Однако по мнению ученых, ИИ-модель, обученная с использованием небольших фрагментов повседневной жизни ребенка, позволит значительно расширить наше понимание раннего языкового и концептуального развития.
Результаты эксперимента показали, что ИИ способен связывать слова с их визуальными образами, исходя из ограниченных данных о ежедневном опыте ребенка.