Robots controlados por voz con inteligencia artificial para misiones reales de búsqueda y rescate

,

15 diciembre 2025

Investigadores del Instituto de Mecatrónica e Ingeniería de Sistemas Ciberfísicos (IMECH.UMA) de la Universidad de Málaga, en colaboración con la Syddansk Universitet – University of Southern Denmark (SDU), han desarrollado un sistema avanzado de robótica móvil que permite controlar vehículos terrestres no tripulados mediante comandos de voz en lenguaje natural, apoyándose en modelos de lenguaje de gran escala (LLMs) para misiones reales de búsqueda y rescate (Search and Rescue, SAR).

El trabajo ha sido presentado en el IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR 2025), considerado el congreso de referencia internacional en robótica aplicada a catástrofes y emergencias, celebrado este año en Galway (Irlanda). Además, el sistema fue validado experimentalmente durante las XIX Jornadas Internacionales de la Universidad de Málaga sobre Seguridad, Emergencias y Catástrofes, donde se realizó una demostración en entorno real con personal de emergencias.

El vídeo que acompaña esta noticia, realizado por Antonio Albeano Rueda, muestra el sistema en funcionamiento durante la validación experimental.

Interacción natural entre humanos y robots en entornos críticos

La investigación demuestra el despliegue de un vehículo terrestre no tripulado (UGV) modelo J8, capaz de ejecutar misiones de apoyo a equipos de emergencia a partir de órdenes habladas, sin necesidad de que el operador tenga conocimientos previos en robótica o programación.

El núcleo del sistema es un marco robótico basado en ROS 2 que integra un sistema multiagente basado en modelos de lenguaje (LLM-MAS). Este enfoque permite interpretar comandos de voz, contextualizarlos con información de la misión en tiempo real y tomar decisiones autónomas seguras, como seleccionar qué equipo de rescate necesita apoyo o a qué zona debe desplazarse el robot.

Gracias a esta arquitectura, se reduce significativamente la carga cognitiva de los operadores humanos, algo crítico en situaciones de emergencia donde el estrés, el tiempo y la coordinación son factores determinantes.

Validación en misiones SAR con personal de emergencias

Durante las XIX Jornadas Internacionales de Seguridad, Emergencias y Catástrofes, más de 150 primeros intervinientesparticiparon en seis misiones SAR paralelas, algunas de ellas proporcionando datos de posicionamiento en tiempo real mediante sensores integrados en su equipamiento.

El sistema LLM-MAS utilizó esta información para:

  • Decidir de forma autónoma qué equipo debía recibir apoyo del UGV
  • Enviar la ubicación objetivo a un planificador externo de trayectorias
  • Supervisar el desplazamiento del robot mediante una interfaz web en tiempo real

El UGV ejecutó con éxito tareas de transporte de material a lo largo de tres rutas críticas de servicio, apoyando de forma coordinada las misiones simultáneas. El feedback directo de los equipos de emergencia confirmó una mejora en la eficiencia operativa y destacó la intuitividad y rapidez de respuesta del sistema.

Colaboración internacional y equipo investigador

El trabajo ha sido desarrollado por Alejandro Jarabo Peñas, Juan Bravo Arrabal, Dahui Lin Yang, Francisco Pastor Martín, Robert Ladig, Jesús Fernández-Lozano, Anders Lyhne Christensen y Alfonso García-Cerezo, reflejando una sólida colaboración internacional entre la Universidad de Málaga y la SDU.

Robótica al servicio de la seguridad y la sociedad

Este trabajo posiciona a IMECH.UMA en la vanguardia de la robótica de rescate, demostrando cómo la inteligencia artificial basada en lenguaje natural puede integrarse de forma segura y efectiva en estructuras reales de mando y control de emergencias, acercando la tecnología robótica a quienes más la necesitan en situaciones críticas.

Referencia:

Real-World Deployment of an LLM-Enabled Voice-Commanded UGV for Logistics in SAR Missions
DOI:10.46540/4264-00105B
2025 IEEE International Symposium on Safety Security Rescue Robotics (SSRR), October 2025.