Con una búsqueda de imágenes cada vez más poderosa en Google Fotos para así identificar personas o mascotas, la app de la compañía de Mountain View (California) sigue perdida ante la identificación de gorilas. Un hecho bastante curioso que se está convirtiendo en todo un frente de batalla para esta app. Lo cierto es que el problema no es único de Google y otros sistemas de clasificación inteligente como Apple, Amazon o Microsoft también fallan en este sentido.
Lo cierto es que si Google Fotos ha destacado por algo, simplemente ha sido por su capacidad para reordenar la vasta cantidad de fotos que se pueden llegar a albergar en un teléfono móvil. Su análisis de imágenes, cuando fue lanzada en 2015, fue toda una revolución al poder etiquetar a personas, lugares y cosas y así dejar al usuario que realice todo tipo de búsquedas rápidas.
Fue justo a los meses de ser lanzada cuando un desarrollador de software, Jacky Alciné, descubrió que Google había etiquetado sus fotos y las de un amigo, ambos de piel oscura, como "gorilas"; un término ofensivo por naturaleza. La respuesta de Google fue prevenir que cualquier cosa fuera catalogada en su app como gorilas.
Con toda la irrupción de la IA en este año y su gran poder para dejar asombrado a medio mundo, The New York Times ha puesto a prueba esta aplicación para revisar si se ha resuelto este enigmático problema. De hecho, han comprobado si las mismas apps de Apple, Amazon y Microsoft, que usan la IA para la identificación de objetos o personas, también son capaces de realizar esta búsqueda.
Después de probar que la app de los chicos de Mountain View es bien útil para buscar entre una colección de animales, entre los que se encuentran a gatos o canguros, en el momento que se realizó la misma prueba para los gorilas, ésta falló estrepitosamente. Incluso ampliaron la búsqueda a otro tipo de primates como son chimpancés, orangutanes o monos, para volver a fallar.
Fallo en Apple, Microsoft y Amazon
Lo peor de todo es que este experimento también se llevó a cabo en Fotos de Apple para estar ante la misma tesitura: encuentra a ciertos animales, pero sucede lo mismo con los primates. Lo interesante es que en la app de los de Cupertino solamente encontró una foto relacionada cuando ésta tenía el texto escrito que describía al gorila.
Ni hablar de Microsoft OneDrive, incapaz de realizar búsquedas de animales, mientras Amazon Fotos se dedicó a mostrar demasiados resultados, aunque es verdad que cuando se buscó primates, sí visualizó una variedad de los mismos, pero para nada de forma concisa con un término como es "gorila".
Hay una excepción para Apple Fotos y Google Fotos, los lémures, un miembro de la familia de primates que ambas sí fueron capaces de identificar. Quizás se debe a que este tipo de primate presenta unos rasgos más característicos que monos u orangutanes, como son sus ojos enormes y su larga cola.
Los miedos de Google y Apple
A veces en la vida hay que ser prácticos, y aquí los dos gigantes de la tecnología no se han andado por las ramas para que su decisión sea la de desactivar la identificación de imágenes para resultados de búsquedas relacionadas con primates; sobre todo por el miedo de realizar una ofensa a algunos de los millones de usuarios que diariamente utilizan sus apps.
[Google I/O 2023: arranca una nueva era basada en la Inteligencia Artificial]
Seguimos con la curiosidad de estar ante una tecnología que prácticamente en estos momentos le ha dado una vuelta completa al mundo, y todavía así, los sistemas de aprendizaje, en los que se basa la misma ChatGPT, se encuentran ante una supuesta derrota cuando un usuario busca simplemente "gorila" en sus aplicaciones.
El mismo Alciné se frustró cuando supo que Google, después de 8 años, todavía sigue sin solucionar el problema y dejó caer que no tiene ninguna fe en esta IA. Tal como recoge The Wall Street Journal en su reporte: los errores pueden reflejar actitudes racistas entre aquellos que programan los datos.
De hecho, tal como cita el medio neoyorquino, ante el incidente del gorila, dos empleados de Google que trabajaron en esta tecnología dijeron que el problema yacía en que la compañía no había puesto las suficientes fotos de personas de color en la colección de imágenes que se usaron para entrenar su sistema de inteligencia artificial.
Por lo que el sistema se encontraba ante dificultades en el momento de la identificación de personas con la piel más oscura y, por ello, lo confundía con este primate.
La ambigüedad de la IA de hoy
Todos los miedos que se han generado desde que ChatGPT irrumpiera en escena se deben a casi esto mismo, que la inteligencia artificial forme cada vez más parte de los quehaceres diarios de millones de personas, y ésta malinterprete algunos aspectos o cualquier experiencia vital de forma indebida, al no haber sido entrenada debidamente bajo unos principios éticos y morales.
La discusión es permanente desde hace unos meses, y los comportamientos impropios de ChatGPT han sido casi una constancia, para que la misma Google se vanaglorie de Bard al indicar que su entrenamiento está basado en principios éticos para corresponder al interés de millones de personas de todo el planeta, dé igual su color, raza o género.
La misma IA de OpenAI ha respondido a veces de forma muy abrupta a los usuarios para que se limitase el uso con el chatbot. Aquí aparece en escena Vicente Ordóñez, profesor en la Universidad de Rice de Houston (Texas), que mantiene que resolver estos problemas es de gran importancia, ya que cómo se podrá confiar en este software ante otro tipo de escenarios.
Volviendo a Google Fotos y las apps del resto de compañías, Michael Marconi, portavoz de Google, dijo que han evitado que la app identificase a alguien como un mono o chimpancé porque el beneficio no compensa el riesgo de daño. Apple declinó hacer ningún tipo de comentarios sobre su app, mientras que Microsoft y Amazon mantienen que siempre están buscando la forma de mejorar sus productos.
Y es que tampoco se está ante una excepción, sino que otros productos tecnológicos están siendo criticados por su incapacidad para detectar personas con la piel oscura; o el mismo Apple Watch, que según una demanda, falló en medir de forma precisa los niveles de oxígeno en sangre a través de distintos colores de piel. Tampoco hay que olvidarse en cómo HP tuvo que retractarse públicamente para afirmar que sus webcams no eran racistas.
Hay muchos más ejemplos de cómo hay una especie de "vagueza" para entrenar los sistemas para que ofrezcan la misma experiencia a todas las personas, dé igual el color de su piel. La misma cámara Nest de Google, que usa la IA para determinar si alguien en el hogar es un familiar o no, etiquetó a varias personas de color como animales. Por suerte, Google corrigió el problema antes de que se lanzase el producto al mercado, tal como recoge un empleado que trabajó para la tecnológica en ese momento.
Sí que es verdad que Google está más motivado últimamente con la inclusión de Real Tone, una serie de filtros disponible en su app de fotos que muestra el color real para personas con la piel más oscura; otro tema relacionado con la fotografía que habría que tocar aparte al estar muy vinculado a todo lo mencionado. Lo que queda es la sensación de una "vagueza" por parte de los gigantes tecnológicos en el entrenamiento de la IA y todos esos sistemas de identificación de imágenes usados en una gran variedad de productos que finalmente llegan al mercado.