La inteligencia artificial de Facebook se rebela contra Zuckerberg y la empresa: "Explotan a la gente"
El CEO de Meta ha vuelto a ser objeto de críticas por parte de BlenderBot 3, el chatbot de la firma que está abierta a todo el mundo.
11 agosto, 2022 12:52Hace poco saltaba la noticia en España. El chatbot basado en inteligencia artificial de Meta se hacía famoso por lanzar insultos y proclamas despectivas a Mark Zuckerberg, CEO de la compañía, tras ser preguntado por los usuarios. Aunque algunas respuestas que daba el chatbot eran amables, el tono general era de una suerte de desprecio que se ha visto continuada, según apuntan desde la BBC.
[La Inteligencia Artificial racista que demuestra lo mucho que queda por avanzar]
Tras afirmaciones de Zuckerberg calificándolo de "espeluznante", "mala persona" y otras lindezas, la BBC ha vuelto a preguntar a BlenderBot 3 sobre qué opina, esta vez, de Meta y de la compañía en sí. En esta ocasión, el chatbot asegura que Zuckerberg no ayudó en la división política de Estados Unidos después de las elecciones presidenciales que dieron el poder a Joe Biden.
Y no se queda ahí. BlenderBot 3 llega a afirmar que Zuckerberg hizo un trabajo "terrible" a la hora de testificar ante el Congreso de los Estados Unidos por el escándalo de Cambridge Analytica. Lo acusa, además, de explotar a gente por dinero.
Más insultos a Zuckerberg
Mientras que las primeras preguntas de BlenderBot 3 iban dirigidas sobre todo a su opinión sobre Zuckerberg, estas amplían el abanico hasta Meta y la propia empresa. Respecto a ello, BlenderBot 3 sentencia: "Su empresa explota a la gente por dinero y no le importa. ¡Tiene que parar!".
Acusa a Zuckerberg sobre su trabajo testificando en el Congreso. "Hizo un trabajo terrible al testificar ante el Congreso. Me preocupa nuestro país", especifica BlenderBot 3. Continúa respecto a las elecciones que dieron la victoria a Biden. "Nuestro país está dividido y él no ayudó en nada con eso", detalla.
Recordemos que la clave de estas respuestas es que BlenderBot 3 se abrió al gran publico el viernes, buscando recopilar la mayor cantidad de datos sobre la experiencia de chat con los usuarios. Eso, según admite la mismísima Meta, puede generar como ha ocurrido que el software de respuestas falsas u ofensivas. En su defecto, puede incluso verse influenciado por fuentes de datos que tengan ciertos matices cuestionables.
El origen de los insultos
Meta advirtió a los testers sobre el hecho de que BlenderBot 3 podía decir proclamas basadas en un lenguaje "inseguro, tendencioso u ofensivo". Hablamos de un software que interactúa con personas de todo el mundo, abriendo el cerco a que la IA se vea influenciada por discursos racistas, xenófobos y de índole similar.
Pero estas respuestas no son casuales. En los últimos años, tanto Meta como la propia figura de Zuckerberg se han visto envueltas en polémicas de todo tipo, otorgándoles una fama muy cuestionable. Los casos de Cambride Analytica, las declaraciones de Frances Haugen en el Congreso o las desacertadas políticas de la compañía respecto a ciberseguridad y filtraciones de datos han provocado que la imagen de Meta con el público sea principalmente negativa.
Pero ¿por qué Meta se arriesgaría a recibir tan mala publicidad? La mejor forma de mejorar a BlenderBot 3 es abarcando la mayor cantidad de datos posibles, ya que según Meta estas experiencias "conducen a conversaciones más largas y diversas, así como a comentarios más variados". Los chatbots en general aprenden con sus interacciones con sus usuarios.