A medida que los sistemas de inteligencia artificial generativa (IAG) continúan automatizando tareas más rutinarias, la educación en IAG es un facilitador clave para los profesionales del futuro, cuyo éxito dependerá cada vez más del desarrollo de habilidades como el pensamiento crítico, el pensamiento analítico, la creatividad y la autoeficacia, según la previsión sobre la evolución de la importancia de las habilidades que necesitan los trabajadores en los próximos cinco años realizada por el World Economic Forum en 2023.
Tener una alfabetización digital ya no será suficiente en la era de la IAG. Se necesita además tener conocimientos de esta tecnología para comprender plenamente su uso y desarrollo responsable. La IAG tiene un enorme potencial para el bien social y la consecución de los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030, siempre que se desarrolle en beneficio de la humanidad, respetando las normas y estándares mundiales.
Para afrontar los posibles riesgos que la IAG pueda plantear para los valores humanísticos fundamentales que promueven la intervención humana, la inclusión, la equidad, la igualdad de género, la diversidad lingüística y cultural, así como las opiniones y expresiones plurales, la UNESCO en su Recomendación sobre la Ética de la Inteligencia Artificial (noviembre de 2021), establece un marco global para la gobernanza ética de la IA basado en cuatro pilares:
- La IA debe respetar los derechos humanos y la dignidad de las personas.
- Se debe evitar la discriminación y garantizar la igualdad de acceso y oportunidades.
- Los sistemas de IA deben ser transparentes y rendir cuentas.
- La IA debe contribuir al bienestar de la sociedad y el medioambiente.
Para que esto sea posible, lograr una buena regulación de la IAG es uno de los retos más importantes de nuestro tiempo, ya que el lanzamiento de versiones iterativas supera la velocidad de adaptación de los marcos regulatorios nacionales, dejando desprotegida la privacidad y seguridad de los datos de los usuarios y a las instituciones educativas, en gran medida, sin preparación para validar las herramientas.
La Unión Europea acaba de aprobar el Reglamento de Inteligencia Artificial, que busca regular los usos de la IA para limitar los riesgos que de ellos se derivan. Cuanto mayor sea el potencial daño que pueda causar un sistema de IA a la sociedad, más estrictos serán los requisitos que deberá cumplir. Este reglamento prohíbe sistemas de IA que tengan como objetivo la manipulación cognitivo-conductual, la elaboración de perfiles de personas en base a su comportamiento, el uso de la IA para la vigilancia policial predictiva y los sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual, por considerarlas de riesgo inaceptable.
En este contexto, la Universidad tiene el reto no solo de formar a los futuros profesionales para que sean personas resilientes y reflexivas que sean capaces de adoptar una cultura de aprendizaje permanente a medida que disminuya el ciclo de vida de sus habilidades, sino trasladarles una visión responsable y ética del uso y desarrollo tecnológico.
La tecnología es neutra, el uso que hacemos de ella es lo que puede no serlo. En este sentido, diferentes organizaciones como la UNESCO, la Sociedad Internacional para la Tecnología en la Educación, Khan Academy, o la CRUE, coinciden en que es crucial dotar a las personas del conocimiento y las habilidades para interactuar de manera responsable con las tecnologías de IA, lo que implica comprender cómo funciona la IA, sus limitaciones, implicaciones y consideraciones éticas.
La encuesta realizada por el Centro para la Democracia y la Tecnología en USA en 2023 refuerza estas indicaciones, ya que el 81% de los padres declaraban que sería útil recibir orientación sobre cómo sus hijos podían utilizar responsablemente la IAG para las tareas escolares y dentro de las reglas escolares. Y el 72% de los estudiantes estaba de acuerdo en que esta misma orientación sería útil para ellos mismos.
Se hace necesario como indica la CRUE un acuerdo entre las universidades de una serie de principios rectores sobre el uso de la IAG en la educación superior que garantice un uso ético y responsable de la IA, que permita que tanto el profesorado como los estudiantes hagan un uso de la IA seguro, accesible, que preserve la equidad y respete la privacidad de los datos y posibles cuestiones de copyright, derechos de autor, etc. También, es necesario realizar recomendaciones al profesorado sobre su rol con respecto a la IA y el proceso educativo, es decir, cuándo el proceso puede ser soportado por la IA y cuándo el profesorado es responsable del proceso educativo.
Desde la universidad ya se está trabajando en estos ámbitos y, desde UAX por ejemplo estamos promoviendo la integración de la IAG en todas nuestras titulaciones para preparar a los estudiantes a generar un impacto social positivo aplicando esta tecnología, desarrollando el pensamiento crítico, la capacidad de resolución de problemas y el aprendizaje continuo. También, hemos preparado una Guía de IAG para que estudiantes y profesores comprendan cómo hacer un uso ético y responsable de la IA, fomentamos el intercambio de buenas prácticas docentes en el uso de IAG y capacitamos a todo el claustro en su uso para la docencia.
Con el propósito adecuado, el uso de la IAG en la educación puede conducir a mejores resultados, empleándose para apoyar y enriquecer la experiencia de aprendizaje, promoviendo el bienestar de los estudiantes y el personal y mejorando las funciones administrativas. La IA puede ayudar a todos los estudiantes a alcanzar sus objetivos educativos, teniendo en cuenta al mismo tiempo la equidad, la inclusión y la reducción de la brecha digital.
***Lola Vivas, directora de Innovación Pedagógica Facultad de Ciencias de la Educación de UAX.