Bletsas (MIT): “La inteligencia artificial con datos falsos, el gran peligro”
Hablamos con Michail Bletsas, director de Computación del MIT MediaLab, sobre el momento actual de la tecnología. Reclama que no perdamos "el sistema operativo de los valores" que nos hace humanos
5 junio, 2018 07:00Una persona con información falsa es solo una persona. El problema radica en la inteligencia artificial con información falsa: “Eso es muy peligroso, es algo de lo que preocuparse”, advierte Michail Bletsas, director de Computación del MIT Media Lab. Sin embargo, matiza, “lo que tenemos ahora no es inteligencia artificial. No es inteligencia. Hemos desarrollado sistemas que usan el aprendizaje automático que son muy buenos resolviendo problemas muy muy concretos y muy claramente delimitados. Pero esto no es inteligencia”.
“Lo que estamos creando son formas de tecnología más avanzadas y empiezan a surgir formas de inteligencia que no son 100% humanas”, señala Bletsas a INNOVADORES, al tiempo que subraya que lo puede cambiar el futuro es una fusión, es decir, “la hibridación de los humanos a medida que la tecnología se introduce cada vez más”. Se trata de una cuestión evolutiva.
El problema con la inteligencia artificial reside en el aprendizaje automático. Bletsas explica que somos los humanos los que estamos alimentando estos sistemas con muchos datos, unos datos que hemos seleccionados las personas. He aquí el problema: “Los humanos pasamos a los algoritmos nuestras preferencias y también nuestros prejuicios, por lo que convertimos los algoritmos en algo “preconcebido”, en cierta manera, que además actúan como “amplificadores” que “pueden llegar a tener efectos muy negativos si confiamos demasiado en ellos”.
Bletsas, que esta semana visita España para participar en el I Congreso Internacional Smart Cities for Smart Citizens en Valencia, alerta: “Tenemos que tener mucho cuidado con cómo entrenamos a estas máquinas y con cómo las utilizamos, porque lo que hacen es amplificar nuestros valores y si examinas las propiedades humanas, las más fiables son las más básicas, es decir, tus instintos son lo más fiable que tienes”.
En este punto Bletsas rompe una lanza a favor de las personas: “Lo que nos hace humanos es que podemos organizarnos en torno a nociones complejas, símbolos. Tenemos este sistema operativo para la Humanidad que nos sirve para avanzar y no retroceder, pero eso es muy difícil transmitírselo a un ordenador”.
Esta es una de las razones por las que el director de Computación del MIT MediaLab asevera que no le preocupan demasiado los sistemas actuales de inteligencia artificial, sino mantener vigente el sistema operativo de los valores de las personas durante la transferencia de información y datos.
“Todavía no podemos pasárselo a las máquinas pero, tarde o temprano, podremos porque seremos uno con las máquinas. Mientras ese sistema operativo permanezca, seguiremos siendo humanos, porque lo que nos define no es el ADN, sino el hecho de que nos organizamos en torno a estos valores, ya los llamemos religión, humanidad, justicia…”.
Estas nociones o símbolos, como les denomina Bletsas, por ahora “solo existen en nuestros cerebros y son colectivos”, por lo que, advierte, “si creamos máquinas que compartan estos valores no podremos distinguirlas de nosotros mismos”.
Sin embargo, se relaja. “De momento no estamos ahí. Los Terminators no van a llegar todavía”. Por ello, añade, no hay que preocuparse aún por la inteligencia artificial. “Necesitamos esos sistemas porque manejamos cantidades enormes de datos y ya no podemos procesarlos manualmente, pero debemos concentrarnos más en lo que nos hace humanos”.
Probablemente inteligencia artificial sean las dos palabras que más se repiten este año en las estrategias de las grandes tecnológicas y en todos los vaticinios y predicciones de futuro. Parece ser la panacea que ayudará a resolverlo todo. Bletsas, ante el “bombo” que se le está dando, se ha lanzado a escribir un libro sobre la inteligencia artificial y su impacto en la sociedad. Nos promete que recogerá todas estas ideas que nos avance en nuestra charla. “Tengo que describir mis ideas y darles forma”.
Desinformación y educación
Una de sus preocupaciones actuales es la “desinformación”. “Estamos en un momento en el que es muy fácil verificar informaciones” y, sin embargo, muchas personas “toman decisiones basadas en fantasías y no en hechos”. Y lo preocupante para Bletsas es que estas personas son políticos: “La política está alejada de la realidad”.
Para luchar contra la desinformación la tecnología va a ser útil, pero la solución a este problema no va a ser tecnológica, afirma Bletsas, que pone el foco en la educación. “Nuestros sistemas educativos siguen mirando a la Segunda Revolución Industrial: ¡Van con dos revoluciones industriales de retraso!”. El ingeniero se refiere a que persiste “la trasferencia del conocimiento del profesor al alumno”, es decir enseñar las respuestas a preguntas concretas.
Cuando, en la actualidad incide, lo que debería primarse es “saber formular las preguntas correctas, porque las respuestas están normalmente a un par de búsquedas de Google”. Bletsas insiste en que se requieren “unas destrezas completamente diferentes y eso es no se lo estamos enseñando a los jóvenes y tienen que aprenderlo”. “Es la diferencia entre aprendizaje y educación”, puntualiza.
La tecnología propiciará interacciones sociales más significativas. Así, Michail Bletsas apuesta por la democracia líquida: “Llegará el punto en que podamos nombrar a un experto que vote en mi nombre sobre un tema específico del que no sepa nada, hacer que quien sabe vote por mí. Tenemos la tecnología para hacerlo y es algo que podría mejorar nuestra democracia y convertirnos en ciudadanos más productivos”.