Hacia robots que conversan: mejorando la Interacción Humano-Robot con Inteligencia Artificial generativa
DOI:
https://doi.org/10.47633/oriolus1.1-7Keywords:
IInteracción Humano-Robot, Inteligencia Artificial generativa, Modelos de Lenguaje de Gran Tamaño (LLM), Robótica educativaAbstract
El artículo presenta el diseño y evaluación de un sistema de Interacción Humano-Robot (HRI) basado en lenguaje natural, cuyo objetivo es acercar la robótica educativa a una experiencia más conversacional e intuitiva. Se desarrolló un prototipo utilizando el robot Yahboom DOFBOT, integrando reconocimiento de voz local (Vosk), interpretación semántica mediante un modelo de lenguaje multimodal (Gemini) y control cinemático ejecutado en una Jetson Nano bajo un enfoque de Interfaz de Lenguaje Natural para Robótica (NLIR).
El sistema fue evaluado con 21 estudiantes universitarios, quienes debían solicitar siete acciones básicas usando expresiones libres. Se obtuvo una tasa general de acierto del 74.8%, destacando mayor precisión en comandos directos y dificultades en instrucciones ambiguas o graduales, especialmente en posiciones extremas. El 25.2% de errores se distribuyó principalmente en falta de contexto (43.2%) e interpretación del LLM (32.4%).
A pesar de estas limitaciones, la percepción de los usuarios fue altamente positiva, con un índice global de interacción de 4.35/5. Los resultados muestran que la integración de LLMs en robots físicos permite interacciones más naturales y accesibles, aunque persisten desafíos en ambigüedad semántica y latencia. El estudio evidencia el potencial de los robots conversacionales en entornos educativos.
Downloads
References
Symmetry-Informed Multimodal LLM-Driven Approach to Robotic Object Manipulation: Lowering Entry Barriers in Mechatronics Education. Symmetry, 17(10), 1756. https://doi.org/10.3390/sym17101756 DOI: https://doi.org/10.3390/sym17101756
Li, Z., Zhang, H., Peng, C., & Peiris, R. (2025). Exploring Large Language Model-Driven Agents for Environment-Aware Spatial Interactions and Conversations in Virtual Reality Role-Play Scenarios. 2025 IEEE Conference Virtual Reality and 3D User Interfaces (VR), 1-11. https://doi.org/10.1109/VR59515.2025.00025 DOI: https://doi.org/10.1109/VR59515.2025.00025
Wang, J., Shi, E., Hu, H., Ma, C., Liu, Y., Wang, X., Yao, Y., Liu, X., Ge, B., & Zhang, S. (2025). Large language models for robotics: Opportunities, challenges, and perspectives. Journal of Automation and Intelligence, 4(1), 52-64. https://doi.org/10.1016/j.jai.2024.12.003 DOI: https://doi.org/10.1016/j.jai.2024.12.003
Downloads
Published
How to Cite
Issue
Section
Categories
License
Copyright (c) 2026 David Alonso Flores Castro, Joel Adrián García Bravo, Jorge Gudiño-Lau, Pedro C. Santana-Mancilla

This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
DERECHOS DE AUTOR
Oriolus ofrece acceso abierto a todo su contenido, promoviendo el intercambio de conocimiento.
Todos los artículos se publican bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual (CC BY-NC-SA 4.0), respetando los derechos morales de autoría.
Los autores conservan la propiedad intelectual de sus obras y autorizan a la revista a su primera publicación y uso bajo acceso abierto.