Роботы-помощники на заводах научатся учитывать человеческую беспечность

  • 23.08.2024 06:03
  • 4k+

Ученые разработали новый алгоритм для промышленных роботов, который позволяет им учитывать человеческую беспечность и повышать безопасность на производстве, сообщает издание TechXplore. 

Алгоритм основан на количественной оценке невнимательности человека, учитывая такие факторы, как частота игнорирования предупреждений об опасности.
Робот, используя этот алгоритм, наблюдает за поведением человека и адаптирует свои действия, чтобы избежать столкновений или ошибок.
В компьютерных симуляциях, где роботы и люди работали бок о бок на производстве, этот алгоритм повысил безопасность на 80% и производительность на 38%. Теперь исследователи хотят провести испытания алгоритма в реальных условиях, используя настоящих роботов и людей, а затем начать полевые исследования. Они также стремятся расширить алгоритм, чтобы он учитывал другие человеческие качества, влияющие на эффективность труда, такие как рациональность и осознание опасности.


сегодня 15:13
252

Google Translate теперь сможет учить пользователей правильному произношению

В честь своего 20-летия сервис Google Translate получил масштабное обновление — функцию тренировки произношения....

вчера 23:55
1.1k+

Google: 75% кода в компании пишет ИИ, но решения остаются за инженерами

Около 75% нового кода в Google создаётся с помощью инструментов искусственного интеллекта. Об этом сообщил глава компании Сундар Пичай в блоге к конференции Cloud Next 2026....

29.04.2026 18:34
2.7k+

Microsoft запустила Fairwater — самый большой в мире дата-центр

Компания Microsoft объявила о досрочном запуске объекта Fairwater в штате Висконсин, который стал крупнейшим в мире центром обработки данных, специально спроектированным для искусственного интеллекта. ...

29.04.2026 12:05
710

Apple готовит собственный процессор Baltra для ИИ

Компания Apple работает над созданием собственного серверного процессора под кодовым названием Baltra, предназначенного для задач искусственного интеллекта....