Los 5 derechos fundamentales que los robots no pueden romper, según la Comisión Europea
El primer borrador de principios éticos para Inteligencia Artificial publicado por la Comisión Europea incluye derechos que los robots no pueden romper.
20 diciembre, 2018 14:03Noticias relacionadas
- Tomar curvas peligrosas con la moto será menos peligroso con esta IA avisándonos
- El cofundador de Siri se une al equipo de Sherpa, el asistente inteligente español
- Intel crea un "cerebro" digital con 8 millones de neuronas, imitando a los nuestros
- Encontrar a perros perdidos usando fotos de sus hocicos ya es una realidad en China
Estamos posiblemente en el momento crítico para el futuro, no solo de la IA, sino también para la humanidad. El papel que tendrán los robots en nuestras vidas será cada vez más importante; se convertirán en un miembro más de la familia, nos ayudarán en el trabajo y en la vida personal, y nos preguntaremos cómo hemos podido vivir sin esta tecnología.
Pero para que eso ocurra, hace falta una base. Unas reglas y unas leyes, que los robots tengan que seguir a rajatabla; todo para asegurarse de que su creación lleva al futuro de la humanidad, no a su fin. Mientras los primeros robots ya están siendo usados en la guerra, y las primeras IA ya están siendo usadas para aprovecharse y engañar a la gente, en la Unión Europea quieren poner los cimientos para esa base, y evitar males mayores.
De ahí la publicación del primer borrador de la guía de principios éticos para Inteligencia Artificial, publicada esta semana por la Comisión Europea. Aunque no se trata del texto final, sirve para hacerse una idea de cómo debería desarrollarse la Inteligencia Artificial en Europa; ha sido desarrollado por 52 expertos de diferentes áreas, desde empresas a universidades.
La guía de principios éticos para Inteligencia Artificial
La base del texto es que la Inteligencia Artificial debe ser desarrollada, desplegada y utilizada con un propósito ético; y que siempre debería estar centrada en el ser humano. De esta manera, se responde a los primeros usos militares de IA que algunas compañías ya están desarrollando. Pero no es sólo cuestión de que un robot sea diseñado para matar; una preocupación más cercana es que se usen estos sistemas para fomentar la discriminación.
En concreto, los grupos vulnerables como las minorías, los niños o las personas con discapacidad pueden sufrir más la implementación de una IA. Las compañías también deberían tener especial cuidado al implementar sistemas inteligentes para empleados o consumidores; ya que se corre el riesgo de vulnerar sus derechos.
Para asegurarse de que los futuros proyectos de IA no cometan esos errores, la Comisión ha creado cinco derechos fundamentales que todos los sistemas basados en IA deben seguir:
- Hacer el bien
- No hacer el mal.
- Respetar la autonomía de los seres humanos.
- Respetar la justicia.
- Que todas las acciones sean explicables.
Aunque los dos primeros derechos son algo subjetivos, el resto refleja algunas de las preocupaciones actuales. Por ejemplo, en muchas ocasiones los propios creadores de un sistema no están muy seguros de porqué ha fallado, o porqué ha tomado una decisión polémica.
El texto definitivo se publicará en marzo de 2019, después de pasar por un periodo en el que los expertos recibirán sugerencias públicas y redactarán el texto final.