Mientras en la Unión Europea ya se ha presentado la primera propuesta de ley del mundo sobre la inteligencia artificial, en Estados Unidos están valorando si es necesaria una regulación al respecto y cómo afrontarla. Para ello, senadores, defensores de derechos humanos y los principales líderes tecnológicos del país, como el creador de ChartGPT o el CEO de Google, se han reunido para debatir estas complejas cuestiones en una sesión a puerta cerrada, donde todos habrían estado de acuerdo en regular esta tecnología, aunque no tanto en el cómo.
A la reunión asistieron altos cargos de los principales gigantes tecnológicos como Mark Zuckerberg, CEO de Meta; Sam Altman, CEO de Open AI y creador de ChatGPT; Satya Nadella, CEO de Microsoft; Sundar Pichai, CEO de Google; e Elon Musk, CEO de Tesla y X (antes Twitter). La sesión ha recibido críticas por ser a puerta cerrada sin prensa.
El líder de la mayoría del Senado, Chuck Schumer, convocó este encuentro al que asistieron tanto las figuras más conocidas de la industria tecnológica estadounidense, como más de 60 senadores, defensores de los derechos civiles, líderes sindicales y otras figuras implicadas en el impacto de la inteligencia artificial.
A la salida, algunos asistentes informaron a la prensa de sus conclusiones y los temas tratados en la reunión. Aunque Musk y otras fuentes como Schumer defendieron que todos los presenten se mostraron a favor de legislar la IA, es en los puntos de esa posible regulación donde se han reflejado las diferencias entre los distintos agentes.
Zuckerberg dijo que el Congreso "debería colaborar con la IA para apoyar la innovación y las salvaguardias. Esta es una tecnología emergente, hay importantes valores que equilibrar aquí y el gobierno es, en última instancia, responsable de ello". Mientras, Musk afirmó a los periodistas que "es importante para nosotros tener un árbitro" para que las empresas no utilicen productos de IA sin control. Fuentes de la sesión afirman que Bill Gates, fundador de Microsoft, defendió que la IA puede combatir el hambre en el mundo.
Uno de los puntos tratados en la sesión fue el desempleo masivo que esta tecnología puede provocar en el mundo en poco tiempo. Sam Altman, CEO de OpenAI, reconoció recientemente que "hay trabajos que van a desaparecer". Esta tensión está a la orden del día en EEUU con la huelga de actores y otros empleados de Hollywood por el uso de la IA y las condiciones laborales del sector audiovisual. El director del grupo comercial de Hollywood Motion Picture Association, presente en el foro, indicó a la salida que sobre este tema se han dado "muchos puntos de vista diferentes".
Por otro lado, en la sesión se abordó el control de los sistemas durante su desarrollo, frente al uso de códigos abiertos que permiten poner a disposición del mundo los modelos para que cualquiera se los descargue y modifique. Por un lado, esta colaboración a nivel mundial permite a las empresas entrenar sus modelos y mejorarlos sin gastar tanto dinero como ha necesitado Google u OpenAI para sus proyectos.
También "democratiza el acceso a herramientas, fomentando la innovación entre los desarrolladores y las empresas" ha defendido Mark Zuckerberg, cuyo modelo Llama 2 se ha lanzado como código abierto recientemente. Sin embargo, según indica The Washington Post, Tristan Harris, director de la organización sin fines de lucro Center for Humane Technology, argumentó que en malas manos, esos sistemas de código abierto pueden ser un peligro, facilitando incluso crear instrucciones para crear armamento o compuestos biológicos peligrosos.
Este peligro ya ha quedado patente con herramientas de generación de texto como ChatGPT, pero Zuckerberg alegó que esas indicaciones dañinas se pueden encontrar ya en la red. Y aseguró que Meta está trabajando para que su tecnología sea lo más segura posible.
Siguiendo con los peligros que este año han dividido a la comunidad científica y tecnológica, algunas preguntas planteadas durante la sesión hacían referencia a la posibilidad de que la IA pueda destruir a la humanidad. Deb Raji, investigadora de IA, instó a los presentes a centrarse en daños actuales como el impacto negativo que puede tener dar el poder de decidir a la IA quién merece un puesto de trabajo, una hipoteca o incluso sobre sentencias judiciales.
En este sentido, también la comunidad médica ha hecho un llamamiento este año para no aplicar apresuradamente y sin supervisión de humanos la IA en entornos médicos, donde estas herramientas puedan ofrecer diagnósticos erróneos. Investigadores de todo el mundo ven más urgente regular estos asuntos, frente a una hipotética IA General capaz de suplantar al ser humano para siempre, algo que aún ven muy lejano.