IA Para Robótica

Aprendizaje de Parkour para Robots Cuadrúpedos

0

Los robots están adquiriendo nuevas habilidades de locomoción gracias al aprendizaje por refuerzo.

Investigadores de la Universidad de Berkeley han desarrollado un innovador sistema que permite a robots cuadrúpedos aprender diversas habilidades de parkour de forma completamente autónoma.

En qué consiste este sistema

El sistema permite a los robots adquirir habilidades para superar obstáculos complejos en entornos dinámicos sin necesidad de datos de movimiento animales.

Genera políticas de control basadas únicamente en la percepción visual del robot. Esto permite al robot observar el entorno y elegir en cada momento la habilidad de parkour más apropiada para sortear los obstáculos.

El método de aprendizaje por refuerzo utilizado se inspira en la colocación directa. Así, el robot aprende progresivamente diversas habilidades como escalar obstáculos altos, saltar grandes huecos, gatear bajo barreras o atravesar espacios estrechos.

Todas estas habilidades se integran en una única política de control que se ejecuta a bordo del robot con sus propios sensores y capacidad de cómputo.

Qué diferencias tiene con otros enfoques

A diferencia de métodos anteriores, este sistema permite al robot adquirir habilidades diversas y generalizables sin necesidad de una biblioteca de movimientos o recompensas complejas.

Otra diferencia clave es que integra todas las habilidades en una política única end-to-end. Esto permite una transición fluida entre habilidades utilizando solo los sensores y computadora del robot cuadrúpedo.

Por qué representa un avance importante

El aprendizaje de parkour autónomo es un gran reto para la locomoción robótica con patas, que requiere superar rápidamente todo tipo de obstáculos desconocidos.

Este sistema representa un hito, permitiendo por primera vez aprender políticas de parkour diversas y basadas solo en visión, sin necesidad de movimientos de referencia.

Los experimentos muestran que robots cuadrúpedos de bajo coste pueden seleccionar y ejecutar de forma completamente autónoma las habilidades apropiadas usando su percepción y computación a bordo. Esto les permite recorrer con éxito exigentes entornos del mundo real.

Además, las habilidades aprendidas se pueden transferir fácilmente a otros robots cuadrúpedos, ampliando las posibilidades de aplicación.

Cómo funciona el entrenamiento

El sistema desarrollado por los investigadores sigue tres etapas:

Pre-entrenamiento con restricciones suaves

Inicialmente se permite a los robots penetrar objetos mediante un plan de estudios automatizado. Esto fomenta que aprendan a sortear obstáculos minimizando las penetraciones.

Entrenamiento fino con restricciones realistas

Se aplican todas las restricciones físicas reales y se refinan los comportamientos aprendidos previamente.

Aprendizaje de la política única de control

Las habilidades individuales entrenadas se integran mediante distilación en una única política de control basada en la percepción visual del robot.

Situación actual y trabajo futuro

El sistema fue presentado en la Conference on Robot Learning 2023, demostrando su efectividad tanto en simulación como en robots reales.

Próximos pasos previstos son extender el método a otros robots cuadrúpedos y mejorar el aprendizaje de habilidades más complejas.

El código está disponible en el repositorio de GitHub del proyecto. Sin duda, este trabajo abre interesantes posibilidades para dotar de mayor agilidad y versatilidad a los robots cuadrúpedos en entornos dinámicos mediante aprendizaje autónomo.

Referencias

DimensionIA

El Proyecto Gutenberg: O Cómo Convertir una Biblioteca en Audiolibros

Previous article

Enseñando a la Inteligencia Artificial a Oler

Next article

Comentarios

Leave a reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Login/Sign up