Imitar es el camino: el modelo innovador de IA permite que los robots aprendan tareas al ver movies humanos


Los robots son increíbles. Ya han revolucionado la forma en que vivimos y trabajamos, y todavía tienen el potencial para volver a hacerlo. Cambiaron la forma en que vivimos al hacer tareas mundanas para nosotros, como pasar la aspiradora. Además, y lo que es más importante, cambiaron la forma en que producimos. Los robots pueden realizar tareas complejas con una velocidad, precisión y eficiencia que supera con creces lo que los humanos son capaces de hacer.

Los robots nos ayudaron a aumentar significativamente la productividad y la producción en industrias como la fabricación, la logística y la agricultura. A medida que continúan avanzando, podemos esperar que se vuelvan aún más sofisticados y versátiles. Podremos utilizarlos para realizar tareas que antes se creían imposibles. Por ejemplo, los robots equipados con inteligencia synthetic y algoritmos de aprendizaje automático ahora pueden aprender de su entorno y adaptarse a nuevas situaciones, lo que los hace aún más útiles en una amplia gama de aplicaciones.

Sin embargo, los robots siguen siendo juguetes caros y elegantes. Construirlos es una historia, pero enseñarles a hacer algo a menudo lleva mucho tiempo y requiere amplias habilidades de programación. Enseñar a los robots cómo realizar tareas de manipulación que son generalmente aplicables con alta eficiencia ha sido un desafío persistente durante mucho tiempo.

Un enfoque para enseñar a los robots de manera eficiente es utilizar el aprendizaje por imitación. El aprendizaje por imitación es un método para enseñar a los robots cómo realizar tareas imitando demostraciones humanas. Los robots pueden observar e imitar los movimientos humanos y luego usar esos datos para mejorar sus propias habilidades. Si bien los avances recientes en el aprendizaje por imitación se han mostrado prometedores, todavía hay obstáculos importantes que superar.

El aprendizaje por imitación es realmente útil para entrenar a los robots para que realicen tareas simples como abrir una puerta o recoger un objeto específico, ya que estas acciones tienen un único objetivo, requieren una memoria a corto plazo y las condiciones generalmente no cambian durante la acción. Sin embargo, el problema surge cuando cambiamos la tarea a una más compleja con condiciones iniciales y de destino variadas.

El mayor desafío aquí es el tiempo y el trabajo necesarios para recopilar manifestaciones de largo plazo. Hay dos direcciones de investigación principales para ampliar el aprendizaje por imitación para tareas más complejas; aprendizaje por imitación jerárquica y aprendizaje a partir de datos de juego. El aprendizaje por imitación jerárquica divide el proceso de aprendizaje en planificadores de alto nivel y controladores visomotores de bajo nivel para aumentar la eficiencia de la muestra y facilitar que los robots aprendan tareas complejas.

Por otro lado, aprender de los datos del juego se trata de entrenar robots utilizando datos recopilados de robots teleoperados por humanos que interactúan con el entorno sin objetivos u orientación de tareas específicas. Este tipo de datos suele ser más diverso que los orientados a tareas, ya que cubren una amplia gama de comportamientos y situaciones. Sin embargo, recopilar tales datos de juego puede ser costoso.

Estos dos enfoques resuelven problemas diferentes, pero necesitamos algo que mix ambos. Una forma de utilizar la eficiencia de la imitación jerárquica y la eficacia del aprendizaje a partir de los datos del juego. Reunámonos con MimicPlay.

MimicPlay tiene como objetivo permitir que los robots aprendan tareas de manipulación a largo plazo utilizando una combinación de datos de juego humano y datos de demostración. Un planificador latente condicionado por objetivos se entrena utilizando datos de juego humano que predice futuras trayectorias de manos humanas en función de imágenes de objetivos. Este plan proporciona una guía aproximada en cada paso de tiempo, lo que facilita que el robotic genere movimientos guiados y realice tareas complejas. Una vez que el plan está listo, el controlador de bajo nivel incorpora información de estado para generar acciones finales.

MimicPlay se evaluó en 14 tareas de manipulación de largo plazo en seis entornos diferentes y logró mejorar significativamente el rendimiento con respecto a los métodos de aprendizaje por imitación de última generación, especialmente en la eficiencia de la muestra y las habilidades de generalización. Esto significa que MimicPlay pudo enseñarle al robotic cómo realizar tareas complejas de manera más rápida y precisa, al mismo tiempo que logró generalizar este conocimiento a nuevos entornos.


Revisar la Papel y Proyecto. Todo el crédito de esta investigación es para los investigadores de este proyecto. Además, no olvides unirte nuestro SubReddit de 15k+ ML, Canal de discordiay Boletín electrónicodonde compartimos las últimas noticias de investigación de IA, interesantes proyectos de IA y más.


Ekrem Çetinkaya recibió su B.Sc. en 2018 y M.Sc. en 2019 de la Universidad Ozyegin, Estambul, Türkiye. Escribió su M.Sc. tesis sobre eliminación de ruido de imágenes utilizando redes convolucionales profundas. Actualmente está cursando un doctorado. Licenciada en la Universidad de Klagenfurt, Austria, y trabajando como investigadora en el proyecto ATHENA. Sus intereses de investigación incluyen el aprendizaje profundo, la visión synthetic y las redes multimedia.


Related Articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Same Category

spot_img

Stay in touch!

Follow our Instagram