Un grupo de científicos de la Universidad de California Los Ángeles (UCLA) ha comprobado que los humanos confían más en las máquinas de inteligencia artificial cuando estas explican lo que hacen, según un artículo que publica hoy la revista Science Robotics.
En un estudio financiado por la Agencia de Proyectos Avanzados de Investigación de Defensa (DARPA, en inglés) -la oficina del Pentágono responsable del desarrollo de tecnologías para uso militar-, los investigadores indicaron la necesidad de crear robots que puedan optimizar tanto la ejecución de tareas como la confianza humana.
Para este experimento el equipo encabezado por Mark Edmonds empleó un aparato operado por inteligencia artificial capaz de abrir frascos de píldoras con varios dispositivos de seguridad y de explicar sus acciones al mismo tiempo y de distintas maneras.
Una prueba psicológica posterior en la que 150 estudiantes escucharon al robot mostró que las formas de explicación más aptas para inspirar confianza no se corresponden necesariamente con las acciones que permiten que el aparato se desempeñe de la mejor manera.
"En el pasado las máquinas estaban diseñadas para hacer exactamente lo que se suponía que debían hacer en el espacio de trabajo bajo control humano, de manera que sabemos exactamente qué hacen paso a paso", dijo en una rueda de prensa Song Chun Zu, profesor de Estadística y Ciencias de Computación en la UCLA.
"Ahora entramos en la nueva era de inteligencia artificial, y confiamos en máquinas para la toma de decisiones y las recomendaciones como la conducción autónoma, el diagnóstico médico y todo tipo de robots ayudantes", añadió.
Otro de los participantes en el estudio, Hong Jing Lu, apuntó que "para entender qué es lo que hace que los humanos confíen en los robots, hay que estudiar a la gente".
"La confianza es una construcción psicológica muy compleja", añadió. "Puede emerger en formas diferentes en distintas etapas del desarrollo de la relación. Cuando alguien dice 'confío en ti para hacer tal tarea' básicamente tiene la creencia de que harás lo que has hecho en el pasado con competencia y podemos predecir que harás la tarea de forma correcta".
"Dar una impresión de desempeño competente y predecible es importante para estimular la confianza humana", continuó Hong. "Para dar esa impresión la máquina no necesita solamente el logro del desempeño pasado, sino que también necesidad proporcionar buenas explicaciones de su comportamiento".
Los investigadores opinan que el impulso de buscar explicaciones está arraigado profundamente en los procesos humanos de cognición, y estas desempeñan un papel central para cultivar una comprensión mutua, lo que promueve la confianza entre individuos y permite la colaboración.
La mayoría de los aparatos de inteligencia artificial creados hasta ahora no tienen la habilidad de saber qué es lo que aprenden y de explicar lo que hacen, y esto hace que la mente humana tienda a desconfiar de ellos.