Apple работает над AirPods с камерами, которые с помощью искусственного интеллекта смогут сканировать окружающее пространство и передавать данные для обработки в Apple Intelligence. Пользователи смогут узнавать местоположение, получать навигацию или описание объектов без необходимости доставать смартфон, сообщает Bloomberg.
Технология интеллектуального зрения уже работает на iPhone 16, но чтобы получить необходимую информацию о предмете или местности нужно наводить на них камеру вручную. AirPods сделают это автоматически. Однако камеры не будут полноцветными, а получат инфракрасные сенсоры, которые определяют глубину и распознают предметы даже в темноте. Такие камеры экономят энергию и не требуют постоянного подключения к экрану.
Благодаря такой технологии, ИИ сможет подсказывать направление к кафе или анализировать вывески, номера домов и другие ориентиры, чтобы сообщить, где находится пользователь. При поиске необходимого здания достаточно будет просто повернуть голову в нужную сторону.
AirPods будут особенно полезны для людей с нарушениями зрения — они смогут не только давать навигацию и распознавать объекты перед пользователем, но и описать препятствия.
Изначально Apple разрабатывала для подобных целей AR-очки Apple Glass, но проект застопорился из-за веса, слабой автономности и сложностей с дизайном. AirPods лишен этих проблем: они легкие, не нагружают глаза и совместимы с любыми аксессуарами. Компания также рассматривала вариант с выпуском очков в стиле Ray-Ban с камерами, но высокая цена и неудобство сделали их неперспективными.
Пока компания не раскрыла точные сроки выхода новинки, но эксперты предполагают, что это случится через 2−3 года. Такие наушники могут стать прорывом в носимой электронике, задав новый тренд.