Cada vez hay más personas dedicadas profesionalmente a la escritura — periodistas, escritores, creadores de contenido, académicos, etc. de una calidad razonablemente contrastada — que son contratados por horas, en modo trabajo flexible, remoto y con unas tarifas por hora de trabajo generalmente mejores que las que solían tener en sus dedicaciones habituales, por compañías de inteligencia artificial.

¿Su trabajo? Sigue siendo el mismo: escribir. Sin embargo, ahora, el contenido que escriben no está destinado a ser consumido por seres humanos, sino por máquinas. Su tarea es responder a preguntas hipotéticas, a lo que serían prompts enviados por seres humanos como ellos, a asistentes generativos. La idea es proporcionar a un asistente generativo un ejemplo de lo que es una buena respuesta, una respuesta de calidad, bien documentada y referenciada, para que pueda entrenarse con ella y aprender a generar respuestas de calidad similar.

Lo fácil con este tipo de cuestiones es caer en la simplicidad: “lo que están construyendo es una librería enorme de respuestas para dárselas a todos los que hagan preguntas”. Sin embargo, el modelo no es en absoluto así: las respuestas se utilizan para que los modelos aprendan y las tomen como ejemplo, pero generen sus propias respuestas. Aunque la respuesta que has escrito fuese buenísima, nunca la verás como tal reproducida por el algoritmo, ni la reconocerás, porque estará oculta tras capas y capas de procesamiento adicional. Como dice el evangelio, no se trata de proporcionarles peces, sino de enseñarles a pescar.

Las compañías hacen esto porque el conjunto de datos con los que entrenar a sus algoritmos, aunque enorme, es finito. Algunos de los repositorios compilados por compañías sin ánimo de lucro, como la Wikipedia, que contiene casi siete millones de artículos en inglés y muchos otros en otras lenguas, todos ellos libres de copyright, ya están más que utilizados desde hace años.

Common Crawl, el enorme archivo de texto recopilado de páginas web desde 2007 por otra compañía sin ánimo de lucro, contiene petabytes de información y se actualiza todos los meses, pero también es limitado. También lo es el archivo de todos los libros digitalizados a lo largo de la historia, y los millones de páginas producidas por organizaciones de todo tipo con las que esas compañías de inteligencia artificial están cerrando acuerdos a toda velocidad para garantizarse el acceso a sus contenidos.

Las compañías hacen esto porque el conjunto de datos con los que entrenar a sus algoritmos, aunque enorme, es finito

A partir de ahí, las cosas no están tan claras. Se sabe, por ejemplo, que entrenar a los algoritmos a partir de su propia producción, de los llamados datos sintéticos, da lugar a un proceso degenerativo, y en último término, al colapso de los modelos. Por tanto, la respuesta es seguir produciendo materiales originales, asegurar lo más posible su calidad recurriendo a profesionales con una calidad razonable, y pedir a esos profesionales que además de escribir artículos, ayuden a los modelos a reconocer, por ejemplo, sus propias “alucinaciones”, los momentos en los que basan una respuesta en correlaciones bajas y tienden a generar conclusiones sin sentido.

Un trabajo interesante, sí… si no fuera porque eres víctima de tu propia paradoja: estás trabajando para ayudar a que una máquina te sustituya en aquello que sabes hacer razonablemente bien. Pero entre seguir haciendo aquello que haces razonablemente bien mientras ves cómo una tecnología disruptiva lo va sustituyendo lentamente y terminas por quedarte sin trabajo, y colaborar con esa disrupción para que, cuando se produzca, estés de lado del que la genera, y no del que la sufre, la segunda parece una opción más inteligente. Y por ahora, hablamos de textos y de escritura, pero no hace falta mucha inteligencia para entender que la cosa no se va a quedar ahí.

Como esos escritores, veremos muchísimos más casos, incontables, de hecho. Veremos médicos practicando procedimientos quirúrgicos para entrenar a robots y que los hagan mejor que ellos. Profesores entrenando algoritmos para que expliquen contenidos de maneras más eficientes y brillantes, disponibles en modo 24x7 y adaptadas al estilo de aprendizaje de cada alumno. Radiólogos identificando tumores en imágenes para conseguir algoritmos que lo hagan sin cansarse y sin equivocarse. Arquitectos calculando estructuras para entrenar algoritmos que lo hagan y lo apliquen a diseños que nunca se le ocurrirían a una mente humana. Actuarios calculando riesgos de pólizas para que un algoritmo lo haga mucho mejor que ellos. La lista es interminable.

Básicamente, entrenar a un algoritmo para que haga, sin las limitaciones propias del ser humano, lo mismo que tú haces, pero mejor. ChatGPT ya escribe mucho mejor y más correctamente que la inmensa mayoría de las personas, y solo estamos empezando.

Durante mucho tiempo, veremos una proliferación de etiquetas que nos advierten que un producto determinado, sea una novela o un objeto, está “hecho por humanos”, como si eso fuera garantía de algo, pero un tiempo después, nos daremos cuenta de que lo “hecho por humanos” conlleva también la posibilidad del llamado “error humano”, y empezaremos, aunque sea por aprendizaje generacional, a preferir lo que han hecho las máquinas.

ChatGPT ya escribe mucho mejor y más correctamente que la inmensa mayoría de las personas, y solo estamos empezando

Si llegas a entender este proceso y las leyes por las cuales tiene lugar, que ya de por sí supone un reto importante, lo difícil será decidir de qué lado quieres estar. Defender “tu territorio” frente a un enemigo que posee recursos teóricamente infinitos, o volverte colaboracionista, quintacolumnista, y trabajar para que ese proceso te permita entender cómo van a ser las cosas en el futuro, y en qué esquemas van a consistir las sociedades del futuro, una vez que hayamos redefinido el significado de cada vez más trabajos.

¿Trabajar para la máquina con el fin de que la máquina trabaje para ti? Estamos aprendiendo a fabricar las herramientas más sofisticadas que la humanidad ha fabricado jamás, y que van a desencadenar los cambios sociales más radicales de toda la Historia. Si no lo ves, sigue con lo que hacías y espera tranquilamente a los cambios, que a lo mejor te da tiempo a jubilarte antes de que se produzcan. O no. Pero si lo entiendes, ya sabes lo que te va a tocar.

***Enrique Dans es Profesor de Innovación en IE University.