Figure 02 ha trabajado solo durante una hora. Lo impactante es que su cerebro ya recuerda y sus manos "sienten"
Publicado el 17/06/2025 por Diario Tecnología Artículo original
Puedes estar en desacuerdo. Puedes pensar que aún falta mucho. Pero cuesta ignorar la dirección en la que avanzamos: una en la que los robots humanoides formarán parte de nuestra vida cotidiana. Cuando la tecnología sea madura, cuando los costes dejen de ser un obstáculo, la decisión ya no será técnica. Será ética. ¿Hasta dónde podrán llegar los robots? ¿Y quién pondrá los límites?
Imagina los escenarios. Robots convertidos en soldados, desplegados en conflictos, solos o junto a tropas humanas. Robots como acompañantes emocionales, no solo para personas mayores, sino para cualquiera que viva solo. Robots que limpian, cocinan, organizan. Robots en fábricas, incansables, constantes, reemplazando tareas que antes hacíamos nosotros.
Lo sorprendente es que todo esto ya está empezando a suceder. Hoy, el robot Figure 02, que desde el año pasado trabaja en una fábrica de BMW, puede operar de forma autónoma, clasificar objetos y hacerlo con precisión gracias a lo que sus desarrolladores llaman “tacto” y “memoria a corto plazo”.
En 2018, ‘Detroit: Become Human’ nos pareció ciencia ficción. Incluso entonces, ni su creador, David Cage, habría apostado a que en 2025 estaríamos viendo algo así en el mundo real. Pero ha ocurrido. Y lo más fascinante es que Figure no camina solo. Detrás de sus gestos, hay algo más. Una red neuronal que, como pronto veremos, es la verdadera protagonista.
Helix, el ‘cerebro’ detrás de Figure 02
Esa red neuronal tiene nombre propio: Helix. Es el cerebro detrás del robot. La responsable de que sus movimientos parezcan cada vez más naturales. Y lo que ha conseguido en apenas tres meses en un entorno logístico es difícil de ignorar. Helix no solo ha aprendido a manipular objetos con destreza. Ha aprendido a entender el contexto. A adaptarse. A actuar como si recordara lo que hizo antes. Y lo más sorprendente: a hacerlo cada vez mejor, más rápido y con menos errores.

Al principio, Helix se enfrentaba a un catálogo más simple. Pero poco a poco ha aprendido a trabajar con una variedad mayor de paquetes: desde cajas rígidas hasta sobres blandos o bolsas de plástico deformables, que son mucho más difíciles de sujetar y posicionar. Algunas se arrugan, otras se doblan, otras se deslizan con facilidad. Para un robot, eso es un desafío real.
Y sin embargo, Helix se adapta. Ajusta la forma en que agarra cada objeto, cambia su estrategia si el paquete es más plano o más blando, incluso sabe cuándo conviene dar un pequeño giro o usar un tipo de pinza más precisa. Lo hace todo al vuelo, sin que nadie le indique qué tipo de paquete tiene delante.
Ese comportamiento no se ha programado línea por línea. Lo ha aprendido observando. En total, fue entrenado con 60 horas de demostraciones humanas. Y con cada nuevo ejemplo, fue entendiendo mejor qué hacer en cada caso. Gracias a eso, el tiempo medio que tarda en procesar un paquete ha ido bajando notablemente.
Pero Helix no solo es rápido. También es preciso. Las etiquetas, que antes quedaban mal orientadas, ahora se posicionan correctamente el 94,4 % de las veces. ¿Cómo? Porque el robot ha aprendido, entre otras cosas, a alisar los sobres arrugados antes de intentar escanearlos. Una ligera presión sobre el plástico es suficiente para que el código de barras quede visible. Es un gesto mínimo, pero muy revelador.

Ese aprendizaje se apoya en algo fundamental: la memoria. Helix cuenta con un sistema de visión que no solo analiza lo que ve en el momento, sino que recuerda lo que vio hace unos segundos. Es como si tuviera una memoria visual a corto plazo. Gracias a ella, puede tomar decisiones más inteligentes. Por ejemplo, si detecta que un paquete ya fue girado en cierto ángulo, no lo gira otra vez. Si no encontró la etiqueta al principio, recuerda dónde podría estar y prueba en esa dirección.
Otro cambio clave ha sido incorporar el historial de sus propios movimientos. Antes, cada acción era un fragmento aislado: ver, actuar, volver a ver. Ahora, Helix recuerda en qué posición estaban sus brazos, su torso o su cabeza hace un instante, lo que le permite moverse de forma más fluida. Si algo se sale del plan, si el paquete se desliza o el agarre no es perfecto, puede corregir en tiempo real sin empezar desde cero.
Y lo más reciente: el sentido del tacto. No un tacto humano, claro, pero sí una forma de detectar cuánta presión está ejerciendo sobre un objeto. Esa retroalimentación de fuerza permite que Helix pause un movimiento si siente resistencia, o lo ajuste si el objeto pesa menos de lo esperado. Gracias a esto, puede manipular con más cuidado y adaptarse a diferencias de peso o rigidez.
Y esto no es teoría. Figure 02 ya ha sido puesto a prueba en condiciones reales. Durante una sesión de una hora, el robot operó sin interrupciones en un entorno logístico, clasificando paquetes de forma autónoma mientras hacía uso de todas sus nuevas capacidades: su sentido del tacto, su memoria visual de corto plazo, su capacidad para corregir errores sobre la marcha. Una demostración continua de trabajo fluido, preciso, sin intervención directa.
Las imágenes de esa sesión, que hemos incluido en el vídeo que acompaña este artículo, muestran algo más que un robot funcionando. Muestran a una red neuronal enfrentándose al caos del mundo físico y saliendo airosa. Muestran a Figure 02 tomando decisiones, adaptándose, actuando con un nivel de autonomía que hasta hace muy poco habría parecido ciencia ficción.
Tesla tiene a Optimus, Boston Dynamics a Atlas, Agility Robotics a Digit. Todos compiten por liderar la carrera de los robots humanoides. Pero en paralelo, Figure 02 avanza por un carril sin eventos, sin música de fondo, pero con resultados. Con el paso del tiempo veremos cómo evoluciona todo esto.
Imágenes | Figure AI
utm_campaign=17_Jun_2025"> Javier Marquez .