MADRID, 22 (Portaltic/EP)
Un grupo de investigadores ha desarrollado un nuevo sistema para diseñar los algoritmos de aprendizaje automático que se aplican en las máquinas de Inteligencia Artificial (IA) que evita que lleven a cabo comportamientos inadecuados como la discriminación de sus usuarios por género o raza, o que incluso sean peligrosos.
Los investigadores, procedentes de las universidades estadounidenses Stanford y Massachusetts Amherst, junto con la Universidad Federal de Río Grande del Sur (Brasil), han abordado el problema de los algoritmos de aprendizaje automático, que en la actualidad no están diseñados para tener límites de seguridad o resulta difícil hacerlo.
"Introducimos un esquema para diseñar algoritmos de aprendizaje automático que permiten a sus usuarios definir y regular fácilmente el comportamiento indeseable" que presenten las máquinas de inteligencia artificial, según han explicado los autores del estudio en un artículo académico en la revista Science donde han recogido su investigación.
Los coches sin conductor o los robots son algunas de las máquinas que emplean hoy en día la inteligencia artificial para facilitar la vida al ser humano. Estos sistemas utilizan algoritmos de aprendizaje automático en todo momento, ya sea para el análisis de datos, para el reconocimiento de patrones o incluso para sistemas más complejos que consiguen un "rendimiento sobrehumano" en varias tareas, según los investigadores.
Es por ello, por lo que declaran que asegurar que estos sistemas no muestren ningún tipo de comportamiento no deseado como, por ejemplo, que causen daño a los humanos, es un asunto "urgente". De hecho, para crear sus nuevos algoritmos de aprendizaje automático, han tomado como referencia los comportamientos peligrosos que tenían los propios algoritmos que probaban en sus experimentos.
De esta forma, han desarrollado un sistema cuya base es que el poder de evitar el comportamiento inadecuado de los algoritmos radica en el diseñador del mismo en lugar de en su usuario, como hasta ahora. Así, esta nueva técnica permite a los diseñadores desarrollar algoritmos de aprendizaje automático que entrenen a las aplicaciones de inteligencia artificial para evitar que tengan comportamientos inadecuados como la discriminación de género, además de que sean seguros.
"Queremos fomentar la inteligencia artificial que respeta los valores de sus usuarios humanos y justifica la confianza que ponemos en los sistemas autónomos", ha explicado la autora senior del artículo y profesora asociada de ciencias de la computación de la Universidad de Stanford, Emma Brunskill, en un comunicado emitido por la propia universidad.
Además, los investigadores también han querido desarrollar nuevas técnicas que faciliten a los usuarios la labor de especificar qué tipo de comportamiento indeseado quieren evitar en sus máquinas de inteligencia artificial, con el fin de que el sistema los evite con "alta probabilidad", como ha señalado el autor principal del texto y profesor asociado de la ciencias computacionales de la Universidad de Massachusetts Amherst, Philip Thomas.
BASADO EN LA ROBÓTICA DE ASIMOV
La investigación propone un tipo de algoritmo "seldoniano", inspirado en Hari Seldon, el protagonista de la saga de la Fundación del escritor de ciencia ficción Isaac Asimov que desarrolla las Tres Leyes de la Robótica, que se resumen en: un robot no causará daño a un ser humano o, por inacción, permitirá que se le cause daño a una persona.
Este modelo propone una optimización de los problemas a través de una partición de los datos en dos grupos. El primero de los grupos se utiliza para obtener una solución al problemas, mientras que con el segundo se generan estadísticas para valorar si además de resolverlo interfiere con alguna de las restricciones de seguridad.
PRUEBAS SOBRE APLICACIONES EDUCATIVAS Y DE SALUD
Para probar su nuevo sistema, los investigadores lo han aplicado sobre aplicaciones educativas y de salud para comprobar si evitaba la discriminación en el primer caso y si eran seguros en el segundo. "Pensar en cómo podemos crear algoritmos que respeten mejor valores como la seguridad y la justicia es esencial a medida que la sociedad aumenta su confianza en AI", ha explicado Brunskill.
En el caso de las aplicaciones educativas, los investigadores han aplicado su método sobre los algoritmos que predicen la nota media de los estudiantes universitarios basándose en los resultados de sus exámenes, que pueden llevar a la discriminación por género, según han asegurado en el comunicado.
Para ello, han utilizado una base de datos experimental y le han dado al algoritmo las instrucciones matemáticas correspondientes para evitar que se desarrolle un método predictivo que sistemáticamente sobreestime o subestime las medias de nota por ser de un género u otro.
Desde la universidad de Stanford aseguran que este algoritmo ha identificado una "mejor forma" para predecir la nota media de los estudiantes "con mucha menos parcialidad sistemática que los métodos existentes".
En el segundo caso, los investigadores han desarrollado otro algoritmo que han aplicado sobre una bomba de insulina automatizada para equilibrar su grado de seguridad con el de rendimiento. Las bombas de insulina de estas características deciden la cantidad de la dosis que se le debe proporcionar a un paciente en las horas de la comida para mantener su azúcar en sangre al nivel adecuado. Un incremiento o disminución de la dosis tendría malas consecuencias para el paciente.
Por ello, el aprendizaje automático identifica una serie de patrones dentro de la respuesta que el paciente tiene a las dosis que le proporciona la bomba de insulina. Utilizando un simulador de glucosa en sangre, Brunskill y Thomas han mostrado cómo estas bombas pueden ser entrenadas para identificar la dosis que se le debe proporcionar al paciente en cada momento, a pesar de los imprevistos que puedan surgir, y evitando las consecuencias negativas que esto podría tener. A pesar de ello, declaran que este sistema todavía no está preparado para ser probado en personas reales.