IA | Tecnología

DeepMind de Google desarrolla AutoRT para mejorar comprensión de robots

Avances en la comprensión de las necesidades humanas por parte de los robots

El año 2024 promete ser un año clave para la inteligencia artificial generativa y los modelos fundamentales grandes, así como para la robótica. Hay una gran expectación en torno al potencial de diversas aplicaciones, desde el aprendizaje hasta el diseño de productos. Los investigadores de robótica de DeepMind de Google son uno de los muchos equipos que exploran el potencial de este campo. En una publicación de blog hoy, el equipo destaca la investigación en curso diseñada para dar a los robots una mejor comprensión de lo que los humanos esperamos de ellos.

Superando las limitaciones de los robots de tarea única

Tradicionalmente, los robots se han centrado en realizar una tarea singular de manera repetida a lo largo de su vida. Los robots de tarea única suelen ser muy buenos en esa única tarea, pero incluso ellos encuentran dificultades cuando se introducen cambios o errores de manera no intencionada en el proceso. Es por eso que DeepMind ha anunciado AutoRT, un sistema diseñado para aprovechar los modelos fundamentales grandes y lograr diferentes objetivos.

Mayor conciencia situacional gracias a los modelos de lenguaje visual

AutoRT utiliza un modelo de lenguaje visual (VLM) para una mejor conciencia situacional. El sistema es capaz de gestionar una flota de robots que trabajan en conjunto y están equipados con cámaras para obtener una representación de su entorno y los objetos dentro de él. Por otro lado, un modelo de lenguaje grande sugiere tareas que pueden ser realizadas por el hardware, incluyendo su efector final. Se entiende que los modelos de lenguaje grandes son clave para desbloquear la capacidad de los robots de entender comandos en lenguaje natural, reduciendo la necesidad de habilidades codificadas de manera rígida.

Pruebas exitosas y nuevos avances en el aprendizaje robótico

El sistema AutoRT ha sido probado ampliamente en los últimos siete meses. Es capaz de orquestar hasta 20 robots al mismo tiempo y un total de 52 dispositivos diferentes. En total, DeepMind ha recopilado alrededor de 77.000 pruebas, incluyendo más de 6.000 tareas. Estos resultados demuestran el potencial de AutoRT para mejorar la eficiencia y la precisión de los robots en entornos novedosos.

Otra novedad del equipo es RT-Trajectory, que utiliza vídeos como entrada para el aprendizaje robótico. Muchos equipos están explorando el uso de vídeos de YouTube como método para entrenar robots a gran escala, pero RT-Trajectory añade una capa interesante, superponiendo un boceto en dos dimensiones del brazo en acción sobre el vídeo. Estas trayectorias proporcionan pistas visuales prácticas de bajo nivel al modelo a medida que aprende sus políticas de control de robots.

Duplicando el éxito del entrenamiento y desbloqueando conocimientos

Según DeepMind, el entrenamiento con RT-Trajectory tuvo el doble de éxito que su entrenamiento con RT-2, con un 63% en comparación con el 29%, mientras se probaban 41 tareas. El equipo destaca que RT-Trajectory no solo representa un paso más en el camino hacia la construcción de robots capaces de moverse con precisión eficiente en situaciones novedosas, sino que también permite aprovechar los conocimientos de conjuntos de datos existentes.

Estos avances en la comprensión de las necesidades humanas por parte de los robots son un hito importante en el desarrollo de la robótica. La capacidad de los robots para entender y adaptarse a las demandas de los humanos abre la puerta a una amplia gama de aplicaciones en diversos campos, desde la asistencia en el hogar hasta la fabricación avanzada. Con los continuos avances en la inteligencia artificial y los modelos fundamentales grandes, es emocionante imaginar las posibilidades futuras que estos avances podrían desbloquear.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Imágenes sintéticas

Imágenes sintéticas desnudas amenazan privacidad y seguridad personal

La proliferación de imágenes sintéticas desnudas plantea serios desafíos de privacidad y seguridad, especialmente en casos de pornografía de venganza. Microsoft ha colaborado con StopNCII...

Inteligencia humanista

Cosmos Institute lanza iniciativas para una IA humanista y ética

El Cosmos Institute busca transformar la inteligencia artificial mediante un enfoque humanista, creando el Human-Centered AI Lab en Oxford y la Cosmos Fellowship. También lanzan...

Aumento precios

Canva eleva precios y usuarios critican pérdida de accesibilidad

Canva ha aumentado drásticamente los precios de sus planes, especialmente para Canva Teams, justificándolo por la inversión en inteligencia artificial. Este cambio ha generado descontento...

Restricciones informativas

Google refuerza IA y plataformas para combatir desinformación electoral

Google implementa restricciones en su inteligencia artificial generativa para evitar la desinformación durante las elecciones presidenciales de EE. UU. Además, mejora su motor de búsqueda...

Datos éticos

LAION presenta Re-LAION-5B para combatir contenido ilegal y NSFW

LAION ha lanzado Re-LAION-5B, un conjunto de datos depurado de enlaces a material de abuso sexual infantil y contenido NSFW. Este esfuerzo responde a recomendaciones...

Asistente inteligente

Gmail integra Gemini para mejorar gestión de correos electrónicos

Gmail ha integrado el asistente de inteligencia artificial Gemini, permitiendo a los usuarios hacer preguntas sobre sus correos electrónicos y recibir resúmenes. Esta función, disponible...

Inteligencia artificial

Reliance Industries impulsa inteligencia artificial con nuevos centros de datos

Reliance Industries, liderada por Mukesh Ambani, apuesta por la inteligencia artificial con la creación de centros de datos en Gujarat y el desarrollo de Jio...

Incertidumbre comunicativa

Incertidumbre en OpenAI por falta de anuncios de Converge 2

El programa de aceleración Converge 2 de OpenAI ha generado incertidumbre por la falta de comunicación sobre las startups seleccionadas. A diferencia de su primera...