La relación de las sociedades humanas con la tecnología es sumamente compleja, y está mediada por una actitud inicial de temor y desconfianza que resulta común a la mayoría de las especies. Ante cambios en el entorno, la gran mayoría de los seres vivos tienden a reaccionar de manera hostil, con temor o incluso con agresividad.
Cuando esa tecnología, además, resulta ser una de las llamadas “de propósito general”, la cosa se complica más aún, porque dan lugar a cambios que permean a toda la sociedad y que influencian su desarrollo de manera drástica. En su libro “Economic transformations”, los economistas Richard Lipsey, Kenneth Carlaw y Cliff Bekar estiman en sólo veinticuatro el número de tecnologías que pueden ser definidas como de uso general que han surgido a lo largo de toda la historia humana, entre las que se encuentran inventos que van desde la agricultura, el sistema fabril, el desarrollo de la metalurgia y de materiales como el bronce o el hierro, la escritura, la imprenta, la electricidad y, por supuesto, Internet. De haberse escrito ahora, y no en 2006, la lista incluiría, por supuesto y sin ninguna duda, la inteligencia artificial.
Cuando nos enfrentamos a ese tipo de tecnologías, todo se vuelve mucho más complejo, porque generan olas de difusión que cambian nuestra civilización, que la transforman, y que hacen que pasemos rápidamente a tomarlas por descontado. Resulta casi imposible imaginar nuestra vida sin esas tecnologías, pero los cambios que provocan llegan de tal manera, que no permiten planificar demasiado.
Con internet, lo hemos visto claramente: una tecnología de comunicación extraordinariamente potente se convirtió, por no incorporarla inmediatamente a la educación y permitir absurdamente que el proceso educativo se enrocase en prohibirla, en un problema que dio lugar a las generaciones más desinformadas, con menos sentido crítico y más vulnerables a las noticias falsas. El resultado ya lo conocemos, y pone cada día más en peligro valores que tardamos mucho tiempo en desarrollar
Con la inteligencia artificial, corremos el riesgo de equivocarnos de nuevo. La primera reacción de las instituciones educativas ante el lanzamiento de ChatGPT en noviembre de 2022 fue clarísima: había que prohibir su uso. Desde entonces, se está produciendo una guerra constante entre alumnos que pretenden utilizarla constantemente y para todo, e instituciones y profesores que tratan de identificar cuándo ha sido utilizada, y amenazan con todo tipo de sanciones, desde el suspenso a la expulsión.
Resulta casi imposible imaginar nuestra vida sin esas tecnologías, pero los cambios que provocan llegan de tal manera, que no permiten planificar demasiado
En ese escenario, hablar de los efectos de difusión de la tecnología en nuestra sociedad resulta absurdo: simplemente, no tenemos un contexto mínimamente saludable para ello. Y la realidad, además, es que como suele suceder, ninguna de las posturas extremas tiene sentido.
Ni es lógico permitir que los estudiantes, desde las etapas más tempranas de su educación, puedan recurrir a todo tipo de herramientas de algoritmia generativa —como no lo es que empiecen a utilizar la calculadora antes de adquirir una cierta soltura con las matemáticas básicas,— ni tampoco que se les prive completamente de su uso, sabiendo como sabemos que van a tener que demostrar soltura y habilidad en su futuro desempeño profesional. Convertir el sistema educativo en la aldea gala de Astérix en la que no entra la modernidad es sencillamente absurdo, y pensar que “cualquier tiempo pasado fue mejor” y pretender volver nostálgicamente al lápiz y al papel también lo es.
Un estudio reciente prueba que el uso de herramientas de inteligencia artificial generativa en el pensamiento crítico fomentan el llamado cognitive offloading, o descarga cognitiva, la delegación de tareas mentales a sistemas externos. Las herramientas de inteligencia artificial reducen la carga cognitiva al automatizar tareas rutinarias, pero esa comodidad disminuye las oportunidades de que nuestro cerebro participe en procesos críticos y reflexivos, fundamentales en el aprendizaje.
Eso lleva a que el uso frecuente de herramientas de inteligencia artificial, sin estar asociado con indicaciones o formación adecuada sobre su uso, se asocie con menores puntuaciones en pensamiento crítico, especialmente entre los más jóvenes, que muestran una mayor dependencia de estas herramientas en comparación con los grupos de mayor edad.
Una mayor formación educativa asociada a este uso puede mitigar algunos de los efectos negativos, ya que fomenta que los usuarios, por ejemplo, tomen los resultados obtenidos como una fuente más, verifiquen los resultados proporcionados y los evalúen críticamente.
El uso frecuente de herramientas de inteligencia artificial, sin estar asociado con indicaciones o formación adecuada sobre su uso, se asocie con menores puntuaciones en pensamiento crítico
Pero de nuevo, la respuesta a eso no puede ser, como hicimos con los teléfonos móviles o las redes sociales, la prohibición. La prohibición es una herramienta de trazo grueso, generalmente además muy mal utilizada. Lo fundamental es adoptar estrategias para equilibrar el uso de la inteligencia artificial con actividades que fomenten el compromiso cognitivo y el pensamiento crítico, como intervenciones educativas que promuevan el aprendizaje activo.
Algo que, lógicamente, solo se puede hacer partiendo de la formación del profesorado y de la incorporación de la inteligencia artificial al proceso educativo de manera horizontal, en todas las materias, como una parte natural del entorno, como deberíamos haber hecho —y no hicimos— con internet.
La respuesta, por tanto, no es prohibir la inteligencia artificial, sino más inteligencia artificial —pero con sentido. ¿Vamos a ser capaces de llevar a cabo ese proceso de difusión tecnológica de forma razonable? ¿O volveremos a equivocarnos como hemos hecho anteriormente, y tendremos padres reclamando histéricamente todo tipo de prohibiciones “por el bien de sus hijos” y convirtiéndolos en futuros perjudicados que podrían haber integrado esas poderosas herramientas de manera natural y no lo hicieron? Visto lo visto, creo que me voy a abstener de hacer apuestas.
***Enrique Dans es profesor de Innovación en IE University.