La IA de Google, según sus empleados: una "mentirosa " que "puede causar muertes"
Los ingenieros de Mountain View advirtieron a los directivos de la compañía en repetidas ocaciones de los efectos negativos de abrir al público Bard.
20 abril, 2023 18:43Google está dispuesto a renovar su buscador con la inteligencia artificial para rivalizar con ChatGPT y Bing de Microsoft. El gigante de internet ve amenazado su liderazgo y prepara un batería de novedades, pero dentro de la empresa no todos están de acuerdo con estas prisas y algunos trabajadores afirman que Bard, su chatbot, "es digno de vergüenza".
Estas son algunas de las valoraciones que los empleados le han brindado al chatbot de Google, basado en LaMDA, su modelo de lenguaje para aplicaciones de diálogo. Bloomberg ha accedido a discusiones internas de la compañía en las que se describe a chatbot como "un mentiroso patológico".
Bard ya está disponible para usuarios de un grupo reducido de países y, a diferencia de Bing de Microsoft, todavía no ha llegado a España. Los fallos no parecen diferentes a los que cometen las IAs de la competencia, que ya han sido criticados por el peligro que suponen, así como los usos negativos que se están dando a esta tecnología para crear bulos y difundir desinformación.
Fallos peligrosos
Informes internos describen que durante las pruebas, cuando le pidieron sugerencias a Bard sobre cómo aterrizar un avión, dio de forma regular consejos que conducían a un accidente. Otro de los informes señala que la IA dio respuestas para bucear "que probablemente resultarían en lesiones graves o la muerte".
Microsoft y OpenAI han defendido que, para mejorar las respuestas de sus IAs, es necesario la interacción con un gran número de usuarios para que el modelo de aprendizaje automático siga creciendo en calidad. Sin embargo, Italia ha prohibido su uso basándose en la ley de protección de datos europea, GDPR, al no haber explicado OpenAI cómo tratan los datos de los usuarios y la información personal que estos ofrecen al conversar. Otros países ya valoran aplicar esta misma medida ante la falta de transparencia.
Bloomberg recoge la opinión de 18 trabajadores que actualmente trabajan para el gigante de internet, antiguos empleados y varios ejemplos de documentación interna. Sin embargo, desde la dirección no habrían atendido a estas quejas. El medio afirma que a los miembros del personal responsables de la seguridad y ética de los nuevos productos se les ha dicho que no se interpongan ni intenten eliminar ninguna de las herramientas de IA generativa en desarrollo.
Google se comprometió en 2021 a invertir más recursos en estudiar la ética de la inteligencia artificial y evaluar los posibles daños que esta tecnología le puede causar a la sociedad actual y futura. En declaraciones a Bloomberg, la empresa afirma seguir comprometida con estos principios. También se ha mostrado reticente a la hora de lanzar su chatbot en los últimos meses, pero la presión comercial habría sido más fuerte.
Carrera comercial
En noviembre de 2022, OpenAI lanzaba su popular chatbot llevando la calidad de su modelo de lenguaje natural a millones de personas. La presión sobre Google se incrementaba con la llegada de esta tecnología a Microsoft, cuyos servicios, como el buscador Bing, se basan también en GPT-4 y otras herramientas de OpenAI, compañía que recientemente ha recibido una inyección de 10.000 millones de dólares.
Recientemente se ha sabido que Samsung se estaría planteando sustituir Google por Bing como buscador predeterminado en sus dispositivos, lo que supondría para Google perder un contrato millonario con el que cuenta desde hace una década.
Por su parte, el CEO de Google y Alphabet, Sundar Pichai, y otros directivos de la compañía han reconocido no entender el origen de algunas de las capacidades de Bard. "No se sabe muy bien cómo ocurre esto. Por ejemplo, un programa de IA de Google se adaptó, por sí solo, después de que se le preguntara en el idioma de Bangladesh, que no estaba entrenado para conocer".