Tech

Большие языковые модели могут помочь домашним роботам исправлять ошибки без помощи человека

Существует множество причин, почему домашние роботы столкнулись с маленьким успехом после Roomba. Ценообразование, практичность, форм-фактор и картографирование - все это способствовало поражению за поражением. Даже когда некоторые из этих проблем решаются, остается вопрос, что происходит, когда система допускает неизбежную ошибку.

Это также было точкой трения на промышленном уровне, но большие компании имеют ресурсы, чтобы решать проблемы по мере их возникновения. Однако мы не можем ожидать, что потребители научатся программировать или нанимать кого-то для помощи каждый раз, когда возникает проблема. К счастью, это отличный случай использования больших языковых моделей (LLM) в сфере робототехники, как это показано новым исследованием Массачусетского технологического института.

Исследование, которое должно быть представлено на международной конференции по представлению обучения (ICLR) в мае, утверждает, что в процессе исправления ошибок внесет немного «здравого смысла».

«Оказывается, что роботы отлично подражают», - объясняет университет. «Но если инженеры также не программировали их корректировать каждое возможное толчок и удар, роботы обычно не знают, как справиться с этими ситуациями, кроме как начать свою задачу с начала».

Традиционно, когда роботы сталкиваются с проблемами, они исчерпывают все предварительно заданные варианты перед тем, как потребуется вмешательство человека. Это особенно сложно в неструктурированной среде, такой как дом, где любое изменение обстановки может негативно повлиять на способность робота функционировать.

Исследователи отмечают, что хотя обучение по принципу имитации (обучение выполнять задачу путем наблюдения) популярно в мире домашней робототехники, оно часто не учитывает бесчисленные малые изменения в окружении, которые могут помешать регулярной работе, заставляя систему начать все сначала. Новое исследование обращает на это внимание, частично разделяя демонстрации на более мелкие подгруппы, а не рассматривая их как часть непрерывного действия.

Здесь появляются LLM, устраняя необходимость вручную помечать и присваивать множество поддействий программисту.

«У LLM есть способ сказать вам, как выполнять каждый шаг задачи на естественном языке. Непрерывная демонстрация человека - это воплощение этих шагов в физическом пространстве», - говорит аспирант Цзунь Хсюань Ванг.  «И мы хотели соединить их, чтобы робот автоматически знал, в каком этапе выполнения задания он находится, и мог перепланировать и восстановиться самостоятельно».

Особая демонстрация, показанная в исследовании, включает в себя обучение робота зачерпывать мраморы и наливать их в пустую миску. Для людей это простая, повторяющаяся задача, но для роботов это комбинация различных маленьких задач. LLM способны перечислить и пометить эти подзадачи. В демонстрациях исследователи саботировали деятельность мелкими способами, например, сбив робота с курса и выбив мраморы из его ложки. Система реагировала, самостоятельно исправляя маленькие задачи, а не начиная все сначала.

«С нашим методом, когда робот допускает ошибки, нам не нужно просить людей программировать или давать дополнительные демонстрации о том, как восстановиться после сбоев», - добавляет Ванг.

Это увлекательный метод, который помогает избежать полного потери вашего рассудка.

Related Articles

Back to top button