Avances en la comprensión de las necesidades humanas por parte de los robots
El año 2024 promete ser un año clave para la inteligencia artificial generativa y los modelos fundamentales grandes, así como para la robótica. Hay una gran expectación en torno al potencial de diversas aplicaciones, desde el aprendizaje hasta el diseño de productos. Los investigadores de robótica de DeepMind de Google son uno de los muchos equipos que exploran el potencial de este campo. En una publicación de blog hoy, el equipo destaca la investigación en curso diseñada para dar a los robots una mejor comprensión de lo que los humanos esperamos de ellos.
Superando las limitaciones de los robots de tarea única
Tradicionalmente, los robots se han centrado en realizar una tarea singular de manera repetida a lo largo de su vida. Los robots de tarea única suelen ser muy buenos en esa única tarea, pero incluso ellos encuentran dificultades cuando se introducen cambios o errores de manera no intencionada en el proceso. Es por eso que DeepMind ha anunciado AutoRT, un sistema diseñado para aprovechar los modelos fundamentales grandes y lograr diferentes objetivos.
Mayor conciencia situacional gracias a los modelos de lenguaje visual
AutoRT utiliza un modelo de lenguaje visual (VLM) para una mejor conciencia situacional. El sistema es capaz de gestionar una flota de robots que trabajan en conjunto y están equipados con cámaras para obtener una representación de su entorno y los objetos dentro de él. Por otro lado, un modelo de lenguaje grande sugiere tareas que pueden ser realizadas por el hardware, incluyendo su efector final. Se entiende que los modelos de lenguaje grandes son clave para desbloquear la capacidad de los robots de entender comandos en lenguaje natural, reduciendo la necesidad de habilidades codificadas de manera rígida.
Pruebas exitosas y nuevos avances en el aprendizaje robótico
El sistema AutoRT ha sido probado ampliamente en los últimos siete meses. Es capaz de orquestar hasta 20 robots al mismo tiempo y un total de 52 dispositivos diferentes. En total, DeepMind ha recopilado alrededor de 77.000 pruebas, incluyendo más de 6.000 tareas. Estos resultados demuestran el potencial de AutoRT para mejorar la eficiencia y la precisión de los robots en entornos novedosos.
Otra novedad del equipo es RT-Trajectory, que utiliza vídeos como entrada para el aprendizaje robótico. Muchos equipos están explorando el uso de vídeos de YouTube como método para entrenar robots a gran escala, pero RT-Trajectory añade una capa interesante, superponiendo un boceto en dos dimensiones del brazo en acción sobre el vídeo. Estas trayectorias proporcionan pistas visuales prácticas de bajo nivel al modelo a medida que aprende sus políticas de control de robots.
Duplicando el éxito del entrenamiento y desbloqueando conocimientos
Según DeepMind, el entrenamiento con RT-Trajectory tuvo el doble de éxito que su entrenamiento con RT-2, con un 63% en comparación con el 29%, mientras se probaban 41 tareas. El equipo destaca que RT-Trajectory no solo representa un paso más en el camino hacia la construcción de robots capaces de moverse con precisión eficiente en situaciones novedosas, sino que también permite aprovechar los conocimientos de conjuntos de datos existentes.
Estos avances en la comprensión de las necesidades humanas por parte de los robots son un hito importante en el desarrollo de la robótica. La capacidad de los robots para entender y adaptarse a las demandas de los humanos abre la puerta a una amplia gama de aplicaciones en diversos campos, desde la asistencia en el hogar hasta la fabricación avanzada. Con los continuos avances en la inteligencia artificial y los modelos fundamentales grandes, es emocionante imaginar las posibilidades futuras que estos avances podrían desbloquear.
Otras noticias • IA
Competencia en startups de IA eleva valoraciones y riesgos financieros
La competencia entre startups de IA se intensifica, llevando a estrategias de financiación innovadoras y valoraciones infladas. Aunque estas tácticas pueden atraer inversión y talento,...
Claude Code de Anthropic revoluciona la programación con voz
La introducción del modo de voz en Claude Code de Anthropic transforma el desarrollo de software, permitiendo a los programadores interactuar verbalmente con la IA....
OpenAI lanza GPT-5.3 Instant mejorando la interacción con chatbots
La actualización GPT-5.3 Instant de OpenAI mejora la interacción con chatbots, adoptando un tono más directo y menos condescendiente. Responde a las críticas de los...
X prohíbe monetización de vídeos de IA sobre conflictos armados
La red social X ha implementado medidas contra la desinformación, prohibiendo la monetización de vídeos generados por IA sobre conflictos armados sin divulgación. Aunque busca...
Cursor alcanza 2.000 millones en ingresos anuales con innovación
Cursor, un asistente de codificación fundado en 2022, ha superado los 2.000 millones de dólares en ingresos anuales al centrarse en clientes corporativos. A pesar...
Desinstalaciones de ChatGPT aumentan por asociación con Defensa
La asociación de OpenAI con el Departamento de Defensa ha provocado un aumento del 295% en las desinstalaciones de ChatGPT, mientras Claude de Anthropic ha...
Claude supera a ChatGPT por su ética y responsabilidad
Claude, el asistente de inteligencia artificial de Anthropic, ha ganado popularidad frente a ChatGPT de OpenAI debido a controversias sobre la ética y colaboración con...
Controversia por designación de Anthropic como riesgo de suministro
La designación de Anthropic como "riesgo de cadena de suministro" por el Departamento de Defensa de EE. UU. ha generado una fuerte reacción en la...
Lo más reciente
- 1
Tensiones éticas entre Anthropic y OpenAI en inteligencia artificial
- 2
Google amplía Canvas AI para optimizar proyectos y estudios
- 3
Google y Epic Games reducen comisión en Play Store al 20%
- 4
Decagon valora a 4.500 millones y permite venta de acciones
- 5
Google lanza Canvas AI democratizando creatividad y productividad en EE.UU
- 6
X Money revoluciona pagos con subasta benéfica y alto rendimiento
- 7
Anthropic navega dilema ético en conflicto EE.UU.-Irán

