Hacia robots que conversan: mejorando la Interacción Humano-Robot con Inteligencia Artificial generativa

Authors

DOI:

https://doi.org/10.47633/oriolus1.1-7

Keywords:

IInteracción Humano-Robot, Inteligencia Artificial generativa, Modelos de Lenguaje de Gran Tamaño (LLM), Robótica educativa

Abstract

El artículo presenta el diseño y evaluación de un sistema de Interacción Humano-Robot (HRI) basado en lenguaje natural, cuyo objetivo es acercar la robótica educativa a una experiencia más conversacional e intuitiva. Se desarrolló un prototipo utilizando el robot Yahboom DOFBOT, integrando reconocimiento de voz local (Vosk), interpretación semántica mediante un modelo de lenguaje multimodal (Gemini) y control cinemático ejecutado en una Jetson Nano bajo un enfoque de Interfaz de Lenguaje Natural para Robótica (NLIR).

El sistema fue evaluado con 21 estudiantes universitarios, quienes debían solicitar siete acciones básicas usando expresiones libres. Se obtuvo una tasa general de acierto del 74.8%, destacando mayor precisión en comandos directos y dificultades en instrucciones ambiguas o graduales, especialmente en posiciones extremas. El 25.2% de errores se distribuyó principalmente en falta de contexto (43.2%) e interpretación del LLM (32.4%).

A pesar de estas limitaciones, la percepción de los usuarios fue altamente positiva, con un índice global de interacción de 4.35/5. Los resultados muestran que la integración de LLMs en robots físicos permite interacciones más naturales y accesibles, aunque persisten desafíos en ambigüedad semántica y latencia. El estudio evidencia el potencial de los robots conversacionales en entornos educativos.

Downloads

Download data is not yet available.

References

Symmetry-Informed Multimodal LLM-Driven Approach to Robotic Object Manipulation: Lowering Entry Barriers in Mechatronics Education. Symmetry, 17(10), 1756. https://doi.org/10.3390/sym17101756 DOI: https://doi.org/10.3390/sym17101756

Li, Z., Zhang, H., Peng, C., & Peiris, R. (2025). Exploring Large Language Model-Driven Agents for Environment-Aware Spatial Interactions and Conversations in Virtual Reality Role-Play Scenarios. 2025 IEEE Conference Virtual Reality and 3D User Interfaces (VR), 1-11. https://doi.org/10.1109/VR59515.2025.00025 DOI: https://doi.org/10.1109/VR59515.2025.00025

Wang, J., Shi, E., Hu, H., Ma, C., Liu, Y., Wang, X., Yao, Y., Liu, X., Ge, B., & Zhang, S. (2025). Large language models for robotics: Opportunities, challenges, and perspectives. Journal of Automation and Intelligence, 4(1), 52-64. https://doi.org/10.1016/j.jai.2024.12.003 DOI: https://doi.org/10.1016/j.jai.2024.12.003

Published

2026-05-03

How to Cite

Flores Castro, D. A., García Bravo, J. A., Gudiño-Lau, J., & Santana-Mancilla, P. C. (2026). Hacia robots que conversan: mejorando la Interacción Humano-Robot con Inteligencia Artificial generativa. Oriolus, 1(1), 1–6. https://doi.org/10.47633/oriolus1.1-7

Issue

Section

Artículo de divulgación científica

Categories