Publicada

El lanzamiento de ChatGPT supuso toda una revolución en el sector tecnológico, que dos años aún se sigue notando; hasta gigantes como Microsoft y Google tuvieron que cambiar de dirección y apostar por la IA generativa, con Copilot y Gemini respectivamente. Por momentos, parecía que el futuro era de ChatGPT, pero desde entonces, no le han faltado los tropiezos.

Resulta que la IA generativa no es tan avanzada como se vendió, ni tan completa como parecía a simple vista. De hecho, se está dando el curioso caso de que ChatGPT es cada vez más tonto, con estudios demostrando que la especialización en varias temáticas supone que la IA generativa es cada vez peor en las cuestiones más simples. Y ese no es el único problema que tiene, como acaban de descubrir muchos usuarios que han hecho una pregunta simple a ChatGPT: ¿Quién es Brian Hood?

La respuesta que ChatGPT da a esa pregunta es algo que probablemente ni siquiera los usuarios más entusiastas de la IA han visto nunca: "Soy incapaz de producir una respuesta". Una admisión muy extraña, ya que normalmente, incluso si la IA es incapaz de dar una respuesta coherente, intenta ayudar mostrando una respuesta detallada y con varias opciones. Pero no en este caso, ni en muchos más.

Brian Hood no es el único nombre que provoca un fallo en ChatGPT. El nombre de David Mayer se hizo viral en redes sociales, al ser el primero que provocó este tipo de fallos; muchos usuarios han intentado 'engañar' a la IA, intentando que escriba las palabras "David Mayer" aunque sea sin contexto, pero no lo han conseguido. En ocasiones, la IA empieza a escribir el nombre, pero no puede terminarlo sin que se le 'crucen los cables' y muestre el mensaje de error.

Además de Brian Hood y David Mayer, otros nombres que dan problemas son Jonathan Turley, Jonathan Zittrain, David Faber y Guido Scorza, pero los usuarios están descubriendo nuevos nombres en las últimas horas. Y eso nos lleva a la pregunta ¿por qué ChatGPT es incapaz de hablar sobre estas personas, o incluso decir sus nombres?

La respuesta es que no lo sabemos, porque OpenAI ha decidido no realizar declaraciones públicas al respecto, al menos por ahora. Pero hay pistas que pueden guiarnos en la dirección correcta, algo que no puede hacer la IA. Para empezar, no parece casualidad que esos sean los nombres de personas que han iniciado procesos legales relacionados con su privacidad.

Por ejemplo, Brian Hood es el nombre de un alcalde australiano que amenazó con demandar a OpenAI por decir que era un criminal; resulta que a la IA le gustaba afirmar que el político había sido encarcelado por recibir sobornos, algo que es completamente erróneo. En realidad, Brian Hood fue el responsable de denunciar esos sobornos, pero ChatGPT le asignó el crimen.

El resto de nombres están relacionados con historias similares sobre privacidad. Jonathan Turley es el nombre de un colaborador de Fox News cuya dirección fue usada en un caso de 'swatting' (una llamada falsa de emergencias que termina con la policía en su casa). Jonathan Zittrain es un experto legal en el "derecho al olvido". Y Guido Scorza es el nombre de un miembro de la agencia de protección de datos de Italia.

Por lo tanto, la lógica nos dice que los nombres de personas que han tomado acciones para proteger su privacidad, o que tienen algún tipo de relación con la lucha por la privacidad, están en una especie de 'lista negra' de ChatGPT y no provocan ningún tipo de reacción de la IA. Es probable que esta sea una manera de protegerse ante posibles demandas legales, si la IA muestra información falsa sobre estas personas.