La Inteligencia Artificial está cambiando nuestras vidas, y lo seguiremos viendo durante mucho tiempo, hasta que esté en todos los sectores. Y en el militar, desgraciadamente, es uno de ellos. De hecho, es una tecnología relativamente nueva, pero muchas marcas relacionadas con la fabricación de armas ya se han sumado al desarrollo e incluso ya la han implementado en sus modelos.
Y esto de que se pueda desarrollar armas letales autónomas preocupa a los expertos en la materia. Imagina un tanque o un caza militar capaces de atacar por sí mismos, sin tripulación, sin miedo a morir o ser dañado (porque al fin y al cabo es un objeto); sería completamente devastador. Y, de hecho, como ocurrió con las armas nucleares, se deberían prohibir las armas letales que sean autónomas o que tengan Inteligencia Artificial.
Por ello, ahora, en el marco de la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI) de 2018 de Estocolmo. Elon Musk, los fundadores de DeepMind (la Inteligencia Artificial de Google) y otras entidades tecnológicamente importantes y presentes en el desarrollo de IA, han firmado un acuerdo mutuo para no crear armas letales con Inteligencia Artificial.
Como las solicitudes de ley han sido rechazadas, los solicitantes han decidido pasar a la acción
Las armas con Inteligencia Artificial son capaces de seleccionar y atacar objetivos por sí mismas, planteando amenazas tanto morales como pragmáticas. Tal y como apunta esta coalición, «la decisión de matar a un humano nunca debería tomarla un robot [en realidad, tampoco debería debería delegarse en otro humano, pero ese es otro tema]». Desde el punto de vista del pragmatismo, sería «peligrosamente desestabilizadora para cada país e individuo».
Es la misma entidad que reunió a 116 expertos en la materia, incluido Musk, para solicitar a la ONU que se prohibiese este tipo de armas. Pero ahora es la primera vez que estas persona firman un acuerdo individual donde se comprometen a no desarrollar este tipo de armas. Dentro del acuerdo está incluso el fundador de Skype.
«Las armas que deciden matar personas autónomamente son tan repugnantes y desestabilizadoras como las armas biológicas y deben tratarse de la misma manera», afirma Max Tegmark, uno de los firmantes y profesor de física en el MIT. El problema es que lo países que tienen la tecnología suficiente como para desarrollar esta tecnología, como EEUU o China, no tienen ningún incentivo para no hacerlo.
Pero tampoco está tan claro de determinar qué es un arma autónoma y qué no. Un arma que seleccione sus objetivos pero que necesite de un operario que de la orden, por ejemplo, ¿es autónoma o manual? Esa es una de las cuestiones que se plantean desde esta coalición.
Noticias relacionadas
- Tomar curvas peligrosas con la moto será menos peligroso con esta IA avisándonos
- El cofundador de Siri se une al equipo de Sherpa, el asistente inteligente español
- Intel crea un "cerebro" digital con 8 millones de neuronas, imitando a los nuestros
- Encontrar a perros perdidos usando fotos de sus hocicos ya es una realidad en China