visión y memoria humanas para misiones de rescate
Pensado para navegar con precisión en zonas de desastre, el robot controlado por IA podría revolucionar las misiones de búsqueda y rescate, junto a otras operaciones de emergencia.
[–>[–>[–>Un equipo de especialistas de la Universidad Texas A&M, en Estados Unidos, presentó un perro robótico impulsado por Inteligencia Artificial (IA) que “ve, recuerda y piensa” con capacidades de navegación y respuesta similares a las humanas, en entornos caóticos como zonas de desastre.
[–> [–>[–>El prototipo combina cámaras, control híbrido y un modelo de lenguaje multimodal con memoria visual para planificar rutas, evitar obstáculos y responder a comandos de voz, una serie de características que lo hacen especialmente útil para misiones de búsqueda y rescate.
[–>[–>[–>
De acuerdo a una nota de prensa, la plataforma se basa en un robot terrestre equipado con un sistema de navegación basado en memoria e impulsado por un MLLM o modelo de lenguaje multimodal, capaz de interpretar entradas visuales y generar decisiones de enrutamiento y planificación con alta eficiencia.
[–>[–>[–>Memoria visual y un sistema de navegación inteligente
[–>[–>[–>
La arquitectura informática integra comportamientos reactivos para evitar colisiones, y deliberativos para trazar rutas precisas reutilizando trayectos ya explorados. En la práctica, el equipo adaptó un robot Unitree GO1 con cámara y desarrolló una infraestructura ROS2, que posibilita capturar imágenes del entorno, almacenarlas en una memoria visual y consultarlas cuando el robot necesita volver a un punto o reconocer un objeto.
[–>[–>[–>
Los experimentos muestran que la navegación basada en memoria reduce la exploración repetida y mejora la capacidad de retrasar rutas en espacios no mapeados o sin GPS. La investigación fue presentada en la 22ª Conferencia Internacional sobre Robots Ubicuos, donde el equipo demostró el comportamiento del perro robótico en escenarios controlados.
[–>[–>
[–>Referencia
Un paseo para recordar: navegación visual basada en la memoria Mllm. Sandun S. Vitharana et al. 22ª Conferencia Internacional sobre Robots Ubicuos (UR) (2025). DOI: https://doi.org/10.1109/UR65550.2025.11078086
[–>[–>[–>
Una mejor cooperación humano-máquina
[–>[–>[–>
Los autores destacan que desplegar la lógica del MLLM permite al robot tener «consciencia situacional inmediata» y una interacción más natural con los rescatistas mediante comandos de voz, entre otras ventajas. Además de las situaciones de rescate, los responsables del proyecto imaginan aplicaciones en hospitales, almacenes, apoyo a personas con discapacidad visual, e incluso labores de reconocimiento en zonas peligrosas.
[–>[–>[–>
Los desarrolladores creen que el sistema debe convertirse en un “compañero empático” y no solo ser una herramienta, simplificando así la cooperación humano-máquina en momentos críticos. Los desafíos más importantes incluyen operar el sistema de forma eficiente en entornos altamente dinámicos, garantizar la seguridad y confidencialidad de los datos visuales o verificar el comportamiento del MLLM frente a errores o adversidades.
[–>[–>[–>
Puedes consultar la fuente de este artículo aquí