A medida que la inteligencia artificial (IA) es más accesible para cada vez más personas en España la tecnología crea nuevas oportunidades para mejorar y ayudarnos en el día a día. Sin embargo, su progreso también plantea preguntas sobre su funcionamiento como por ejemplo, los problemas que pueden acarrear si no se desarrolla de manera responsable. Lo que puede desbocar el miedo del ser humano a esta tecnología.
Como su propio nombre indica, se trata de una inteligencia creada por humanos pero llevada a cabo por máquinas, y presenta las mismas capacidades que el ser humano: aprende, mejora y se vale por sí misma en determinados campos. Mientras muchos observan a esta tecnología como un elemento que marca el presente y será crucial en el futuro; otros la miran con recelo y temor ante el impacto que puede tener en sus vidas.
Personalidades como Elon Musk creen que esta tecnología será una amenaza para el ser humano en un futuro, especialmente en el aspecto laboral. Aprende como un humano pero mantiene la eficiencia y aporta ahorros por ser una máquina. Lo cierto es que además la ciencia ficción también ha ayudado a que las personas la teman, presentando futuros distópicos en los que llega a controlar a los humanos.
En ese sentido, Google se ha preocupado por el peligro que puede suponer que la inteligencia artificial no se desarrolle cuidadosamente y cómo interactúa con las personas. La compañía señala que la inteligencia artificial también tiene que vivir con los prejuicios, y quieren hacer algo al respecto. Para ello, Google ha puesto en marcha programas adecuados sobre el tema de la "inteligencia artificial responsable".
Dos de los principios básicos de inteligencia artificial de Google son "ser responsable ante las personas" y "evitar crear o reforzar prejuicios injustos". Esto incluye el desarrollo de sistemas de inteligencia artificial interpretables que colocan a personas al frente de cada paso del proceso de desarrollo, al mismo tiempo que garantizan que cualquier sesgo injusto que pueda tener un ser humano no se refleje en el resultado de un modelo.
Socialmente beneficiosa
Google aspira a crear tecnología que resuelva problemas importantes y ayude a las personas en su vida diaria. En ese sentido, la inteligencia artificial tiene un gran potencial, junto con otras tecnologías que también plantean desafíos importantes. El gigante tecnológico trabaja para desarrollar tecnología de manera responsable y establece una serie de áreas de aplicación específicas que no perseguirán, como no implementar inteligencia artificial en tecnologías que puedan causar daños o lesiones a personas.
"La inteligencia artificial debe ser socialmente beneficiosa, obteniendo un gran impacto en una amplia gama de campos, como la atención médica, la seguridad, la energía, el transporte y la fabricación", apunta Anna Ukhanova, technical program manager de Google AI. Google trabajará para que la información disponible mediante la inteligencia artificial sea precisa y de alta calidad. Una tecnología que también "debe ser responsable ante la gente, estando sujetas a la dirección y el control del ser humano".
Los algoritmos y conjuntos de datos de inteligencia artificial pueden reflejar, reforzar y reducir sesgos injustos. "Distinguir los prejuicios justos de los injustos no siempre es sencillo y difiere entre culturas y sociedades", comenta Anna Ukhanova. En ese sentido, Google tratará de evitar impactos injustos en las personas, particularmente aquellos relacionados con características sensibles como raza, etnia, género, ingresos, nacionalidad o creencias políticas o religiosas, entre otros.
Anna Ukhanova investiga el aprendizaje automático y la inteligencia artificial, y ha explicado que el éxito de esta tecnología está directamente relacionado con el uso responsable. El aprendizaje automático o la inteligencia artificial generalmente se basan en grandes conjuntos de datos con los que se "entrenan los sistemas", y verificar esos datos no es fácil. "A menudo, los prejuicios ya están en los datos. No estamos hechos para procesar cantidades tan grandes de datos", explica Fernanda Viegas, co-lead de Google's People + AI efforts.
Marcar los límites
Por ese motivo se necesitan herramientas para abordar los datos y prevenir posibles desigualdades en una etapa temprana, y la compañía asegura estar en proceso de desarrollar más herramientas de este tipo. "Un paso importante para contrarrestar la desigualdad es la transparencia y a menudo unos simples cambios de diseño pueden marcar una gran diferencia", indica Anna Ukhanova. La investigadora pone como ejemplo Google Translate, cuyo traductor automático traduce los términos neutrales al género de tal manera que tanto la forma femenina como la masculina se traducen en el idioma de destino.
Sin embargo, también es importante mostrar al usuario que la tecnología tiene sus limites y tratar de explicar lo mejor posible cómo el sistema llega a ciertos resultados. "El debate es realmente complicado. La inteligencia artificial siempre se consideraría desde puntos de vista extremos. O se ve como una tecnología que lo sabe todo y resuelve todos los problemas, o como algo que nos lleva al abismo", señala Fernanda Viegas.
Para poder avanzar hay que saber ver el término medio. Por ejemplo, la inteligencia artificial es capaz de realizar grandes cosas, como detectar cáncer o predecir terremotos. "Al mismo tiempo, también debemos hablar sobre dónde falla la tecnología, cuáles son sus problemas y dónde están sus límites. Esta es la única forma en que podemos hacer que la gente termine confiando en la inteligencia artificial", concluye Viegas.