Cada vez que surge una tecnología que nos sorprende, trae aparejada una muy razonable y esperable discusión sobre su control y sus consecuencias. El caso de la mal llamada inteligencia artificial —no solo no es inteligente, porque se limita a hacer correlaciones estadísticas más o menos sofisticadas, sino que mucho menos es artificial, porque nada hay más natural que los datos con los que trabaja, generados por nosotros mismos— la primera cuestión ha girado en torno a sus efectos sobre las personas, o más concretamente, sobre el empleo.
De nuevo, como con cada tecnología emergente, es razonable pensar que su aplicación vaya a tener efectos sobre el empleo. Las Big Tech, que llevan meses empeñadas en una batalla por ver quién despide a más trabajadores y quién es capaz de “hacer más con menos”, lo saben bien: un trabajador administrativo o gerencial, de los que suelen denominarse “de cuello blanco”, utilizando algoritmos generativos bien afinados, es posiblemente capaz de llevar a cabo el trabajo que antes hacían varios trabajadores. O al menos, eso quieren creer, que ya veremos lo que ocurre cuando vayamos pasando del terreno de las hipótesis al de la dura realidad.
Pero más allá de un efecto sobre el empleo que muchos definen como “tu trabajo no te lo va a quitar un algoritmo, sino una persona que sepa usar ese algoritmo mejor que tú”, está el complejo problema del control de la tecnología. Muchos empieza a decir que la IA se va a convertir en el nuevo oráculo, en el nuevo McKinsey. Otros, posiblemente influenciados por lo que la historia nos dice que ocurrió hace no tantos años con la llamada Web 2.0, afirman que la IA va a estar bajo el control de las grandes compañías tecnológicas, y que el resto de los mortales simplemente utilizaremos sus algoritmos —el equivalente a decir algo así como que “pensaremos lo que ellos nos dejen pensar”.
¿Tiene sentido pensar que una tecnología como la IA —o más propiamente, el machine learning— con una evidente evolución hacia la bajada de sus barreras de entrada, va a estar en manos de unos pocos? La realidad es que, a pocos meses de la aparición del ChatGPT de OpenAI, que no es precisamente una startup, sino una compañía fuertemente capitalizada desde sus orígenes y con una valoración de varias decenas de miles de millones, han surgido muchísimas compañías que aplican algoritmia a prácticamente cualquier cosa, y que lo hacen, en muchos casos, muy bien.
A poco de que OpenAI pusiese en el mercado Dall·E, su algoritmo generativo de imágenes, ya había varios más —Midjourney, Stabe Diffusion, etc.— de otras procedencias. ¿Qué nos lleva a pensar que los algoritmos más utilizados del futuro podrían estar en manos de unas pocas compañías?
Pero más allá de un efecto sobre el empleo que muchos definen como “tu trabajo no te lo va a quitar un algoritmo, sino una persona que sepa usar ese algoritmo mejor que tú”
La idea, en principio, es espantosa: las posibilidades de manipular un algoritmo son muy elevadas, y por tanto, la perspectiva de que unas pocas compañías controlen los más utilizados y los empleen para distorsionar nuestra imagen del mundo, muy real. De hecho, es en gran medida lo que pasó con la llamada Web 2.0: tras la promesa de democratizar la participación en la web, se ocultaba una idea peligrosísima: la de que para poder participar, teníamos que abrir una cuenta en alguna de las compañías que nos ofrecía acceso a sus herramientas, y por tanto, cederle nuestros datos a cambio.
Esa idea convirtió a algunas de esas compañías en las más grandes y poderosas del mundo, y en las protagonistas de múltiples tropelías, desde manipulaciones electorales hasta genocidios. Pero además, distorsionó nuestra imagen del mundo seleccionando mediante algoritmos de recomendación lo que ponían delante de nuestros ojos, radicalizándonos o reforzando nuestras creencias con el simple fin de que permaneciésemos más tiempo en sus feudos digitales e hiciésemos clic en más anuncios.
Ahora, ¿qué va a ocurrir con el desarrollo empresarial de esta tecnología incipiente que muchos se empeñan en llamar IA? ¿No veremos, como ha ocurrido en otros casos, un despertar de alternativas open source, de código abierto, que nos permitan no depender de los algoritmos de compañías poderosas? Después de todo, esto va de datos, que casi cualquiera puede compilar con mayor o menor acierto, y de estadística, que es un libro de instrucciones abierto y al que todos podemos recurrir, ¿no? ¿Veremos cada vez más algoritmos para cada vez más cosas y en cada vez más manos, o nos espera un futuro de concentración y de “señores del algoritmo” dispuestos a dominar el mundo como en una película de Marvel?
Las posibilidades de manipular un algoritmo son muy elevadas
Como en tantas cosas, la clave va a estar en la regulación. Por eso es tan importante, dado que la regulación suelen ejercerla personas que no tienen ni la más ligera idea de lo que regulan y que tienden a moverse por criterios tan absurdos como la “alarma social”, que regulemos con cuidado.
Si la propuesta europea sigue adelante como está, por ejemplo, pretendiendo obligar a cualquiera que ponga un algoritmo en el mercado a licenciarla y certificarla asegurando que no atenta contra ningún posible riesgo, tendremos un problema importante, porque esa cláusula, por si sola, prácticamente anula la posibilidad de que se desarrolle algoritmia generativa en modo open source, de forma emergente por comunidades de creadores. Y no, esto no es cuestión de hippies comeflores: el open source es el creador de muchos de los softwares más exitosos de la historia. Y en el caso de los algoritmos, una de las mejores garantías contra la manipulación.
Controlemos bien a quien hace la regulación, porque por acción o por omisión, puede estar, en realidad, liándola parda y poniendo el futuro en manos de unas pocas corporaciones, en lugar de dejarnos a todos que hagamos nuestros propios algoritmos. Por ahora, esperemos que alguien en la UE tenga el sentido común de enmendar ese borrador.
Y en el futuro, que piense muy bien en las posibles consecuencias de lo que está regulando. La disyuntiva entre un mundo razonablemente libre y uno dominado, como en las distopías de ciencia-ficción, por unas pocas compañías, está encima de la mesa.
***Enrique Dans es Profesor de Innovación en IE University.