¿Cómo de inteligentes son estas máquinas y cómo se comparan en este sentido con los seres humanos? Un equipo de la Academia de Ciencias China en Beijing desrrollado una prueba que sirve para ambos. Bajo este "modelo de inteligencia estándar", los sistemas y las personas deben ser capaces de recopilar datos, dominarlos, ejercitar la creatividad sobre ellos y luego producir un resultado. ¿La conclusión del estudio? Un niño de seis años es más listo que cualquier asistente inteligente del mercado. Todavía.
Google acaba de dar un paso de gigante en el avance de la Inteligencia Artificial. DeepMind ha alcanzado un nivel sobrehumano en el juego de estrategia Go... sin ninguna ayuda humana. La capacidad autodidacta de la máquina es crucial para el desarrollo de un cerebro artificial general que pueda abordar cualquier tarea, tal y como ocurre con el cerebro humano.
“Estamos bastante entusiasmados porque creemos que esto es lo suficientemente bueno para hacer un progreso real en algunos problemas reales”, aseguraba el presidente ejecutivo de DeepMind, Demis Hassabis. Si las computadoras anteriores que jugaban al Go de DeepMind comenzaron a entrenar con la ayuda de expertos, su última versión (AlphaGo Zero) lo hizo desde cero. Tan sólo usó movimientos aleatorios y aprendió jugando contra sí mismo.
Al principio, el aprendizaje de AlphaGo Zero reflejaba el de los jugadores humanos. Comenzó intentando capturar piezas, como suelen hacer los principiantes. Pero después de tres días dominó las tácticas complejas utilizadas por expertos humanos. 40 días más tarde, el programa había encontrado estrategias desconocidas para los humanos.
Un nuevo avance que recupera un viejo debate: ¿dónde están los límites de la Inteligencia Artificial? El director de Inteligencia Artificial de Google, John Giannandrea, cree que ya es hora de dejar de hablar de máquinas que destruirán a la humanidad. Lo que le quita el sueño son los sistemas autónomos que ya toman decisiones sobre la salud, los seguros y las libertades de las personas.
"La verdadera cuestión de seguridad, si quiere llamarse así, es que si les damos a estos sistemas datos sesgados, estarán sesgados", afirmaba en una reciente conferencia. Es probable que el problema del sesgo en el aprendizaje automático crezca a medida que la tecnología se extiende a áreas críticas como la medicina y el derecho, y también aumentará cuanta más gente sin una profunda comprensión técnica suficiente tenga que implementarla.
"Es importante que seamos transparentes sobre los datos de entrenamiento que usamos y que busquemos prejuicios ocultos en ellos. De lo contrario, estaremos construyendo sistemas sesgados. Si alguien está tratando de vender un sistema tipo caja negra como apoyo para la decisión médica, pero usted no sabe cómo funciona ni qué datos se utilizaron para entrenarlo, entonces yo no confiaría en él", añade Giannandrea.
Aunque el directivo de Google concluyó con un mensaje optimista: "Me opongo a la creencia de que daremos el salto a algún tipo de sistema superinteligente que hará que los seres humanos se queden obsoletos. Entiendo por qué la gente se preocupa por ello, pero creo que ya ha estado demasiado tiempo en el aire. No creo que haya ninguna base tecnológica que indique en absoluto que esto es inminente".