Los robots aprenden a completar tareas viendo YouTube


El aprendizaje ha sido el santo grial de la robótica durante décadas. Para que estos sistemas tengan éxito en entornos impredecibles, deben hacer más que simplemente responder a la programación: deben adaptarse y aprender. Cuanto más leo y hablo con expertos, más me doy cuenta de que el aprendizaje robótico en realidad requiere una combinación de muchas soluciones.

El video es una solución intrigante que ha sido el foco de muchos trabajos recientes en esta área. El año pasado, por esta época, destacamos WHIRL (aprendizaje de robot imitador de humanos en estado salvaje), un algoritmo desarrollado por CMU que tiene como objetivo entrenar sistemas robóticos mediante la observación de una grabación de un ser humano realizando una tarea.

Esta semana, Deepak Pathak, profesor asistente en CMU Robotics Institute, presenta VRB (Vision-Robotics Bridge), una evolución de WHIRL. Al igual que su predecesor, el sistema utiliza el video de un humano para demostrar la tarea, pero la actualización ya no requiere que se realice en un entorno idéntico al que trabajará el robot.

"Podríamos mover robots por el campus y hacer todo tipo de tareas", señala el estudiante graduado Shikhar Bahl en un comunicado. “Con este modelo, los robots pueden explorar con curiosidad el mundo que los rodea. En lugar de simplemente agitar los brazos, un robot puede interactuar más directamente con la forma en que interactúa”.

El robot presta atención a cierta información importante, incluidos los puntos de contacto y la trayectoria. El equipo usa la apertura de un cajón como ejemplo. El punto de contacto es el mango y la trayectoria es la dirección en la que se abre. "Después de que el robot haya visto varios videos de personas abriendo cajones", señala CMU, "puede determinar cómo abrir cada cajón".

Eso sí, no todos los cajones se comportan igual. Los humanos se han vuelto bastante buenos abriendo cajones, pero eso no significa que no tendremos problemas con el armario ocasionalmente construido de manera extraña. Uno de los trucos clave para mejorar los resultados es crear conjuntos de datos más grandes para el entrenamiento. CMU se basa en videos de bases de datos como Epic Kitchens y Ego4D, este último contiene "casi 4,000 horas de videos ensimismados de actividades diarias de todo el mundo".

Bahl señala que existe un vasto archivo de posibles datos de entrenamiento que esperan ser revisados. "Estamos utilizando estos conjuntos de datos de una manera nueva y diferente", señala el investigador. "Este trabajo podría permitir que los robots aprendan de la gran cantidad de videos disponibles en Internet y YouTube".

Si quieres conocer otros artículos parecidos a Los robots aprenden a completar tareas viendo YouTube puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir