Hacia robots que conversan: mejorando la Interacción Humano-Robot con Inteligencia Artificial generativa
DOI:
https://doi.org/10.47633/oriolus1.1-7Palabras clave:
IInteracción Humano-Robot, Inteligencia Artificial generativa, Modelos de Lenguaje de Gran Tamaño (LLM), Robótica educativaResumen
El artículo presenta el diseño y evaluación de un sistema de Interacción Humano-Robot (HRI) basado en lenguaje natural, cuyo objetivo es acercar la robótica educativa a una experiencia más conversacional e intuitiva. Se desarrolló un prototipo utilizando el robot Yahboom DOFBOT, integrando reconocimiento de voz local (Vosk), interpretación semántica mediante un modelo de lenguaje multimodal (Gemini) y control cinemático ejecutado en una Jetson Nano bajo un enfoque de Interfaz de Lenguaje Natural para Robótica (NLIR).
El sistema fue evaluado con 21 estudiantes universitarios, quienes debían solicitar siete acciones básicas usando expresiones libres. Se obtuvo una tasa general de acierto del 74.8%, destacando mayor precisión en comandos directos y dificultades en instrucciones ambiguas o graduales, especialmente en posiciones extremas. El 25.2% de errores se distribuyó principalmente en falta de contexto (43.2%) e interpretación del LLM (32.4%).
A pesar de estas limitaciones, la percepción de los usuarios fue altamente positiva, con un índice global de interacción de 4.35/5. Los resultados muestran que la integración de LLMs en robots físicos permite interacciones más naturales y accesibles, aunque persisten desafíos en ambigüedad semántica y latencia. El estudio evidencia el potencial de los robots conversacionales en entornos educativos.
Descargas
Citas
Symmetry-Informed Multimodal LLM-Driven Approach to Robotic Object Manipulation: Lowering Entry Barriers in Mechatronics Education. Symmetry, 17(10), 1756. https://doi.org/10.3390/sym17101756 DOI: https://doi.org/10.3390/sym17101756
Li, Z., Zhang, H., Peng, C., & Peiris, R. (2025). Exploring Large Language Model-Driven Agents for Environment-Aware Spatial Interactions and Conversations in Virtual Reality Role-Play Scenarios. 2025 IEEE Conference Virtual Reality and 3D User Interfaces (VR), 1-11. https://doi.org/10.1109/VR59515.2025.00025 DOI: https://doi.org/10.1109/VR59515.2025.00025
Wang, J., Shi, E., Hu, H., Ma, C., Liu, Y., Wang, X., Yao, Y., Liu, X., Ge, B., & Zhang, S. (2025). Large language models for robotics: Opportunities, challenges, and perspectives. Journal of Automation and Intelligence, 4(1), 52-64. https://doi.org/10.1016/j.jai.2024.12.003 DOI: https://doi.org/10.1016/j.jai.2024.12.003
Descargas
Publicado
Cómo citar
Número
Sección
Categorías
Licencia
Derechos de autor 2026 David Alonso Flores Castro, Joel Adrián García Bravo, Jorge Gudiño-Lau, Pedro C. Santana-Mancilla

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
DERECHOS DE AUTOR
Oriolus ofrece acceso abierto a todo su contenido, promoviendo el intercambio de conocimiento.
Todos los artículos se publican bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual (CC BY-NC-SA 4.0), respetando los derechos morales de autoría.
Los autores conservan la propiedad intelectual de sus obras y autorizan a la revista a su primera publicación y uso bajo acceso abierto.