Máquinas más listas gracias a los videojuegos
Es posible 'engañar' a un algoritmo con imágenes generadas por ordenador, una forma más eficiente de aprendizaje para algunos cerebros artificiales.
30 mayo, 2016 01:03Noticias relacionadas
- Robots profesores, abogados o periodistas: la invasión de la inteligencia artificial
- Evgeny Morozov: “Facebook nunca tuvo una misión cívica”
- Google quiere competir en serio en mensajería... y que hables con tu casa
- Los científicos encuentran 'el duende' del flamenco
- Cae la última frontera de la inteligencia artificial
- AlphaGo, el divino robot de Google que venció al hombre en el milenario juego del go
- Los videojuegos más esperados que nunca llegan
Un anuncio del videojuego Asassin's Creed en una sala de cine fue la inspiración que necesitó el investigador informático Aiden Gaidon, del centro de investigación de Xerox en Grenoble (Francia), para poner en marcha una idea: utilizar escenarios basados en gráficos de videojuegos para que los programas de reconocimiento visual aprendan a distinguir objetos en el mundo real.
"Hace como un año y medio fui a ver una película con mi mujer y uno de los anuncios que proyectaron antes del film era del videojuego, y era tan realista que pensé que realmente era el trailer de una película", explica Gaidon a EL ESPAÑOL. "Enseguida se me ocurrió que si algunas imágenes generadas por ordenador podían engañar a mi cerebro, quizá podían engañar a mi propio algoritmo de reconocimiento visual y hacerle creer que lo que está viendo es real y no algo generado por un motor gráfico de un videojuego".
Enseguida él y sus compañeros de equipo se pusieron a buscar un software apropiado para generar escenarios virtuales. Eligieron Unity, una plataforma bastante popular entre desarrolladores y relativamente asequible. Con esta herramienta, copiaron escenas de la vida real de modo que su algoritmo de aprendizaje profundo, que simula redes neuronales, pudiera empezar a reconocer objetos y entornos.
Engañar a un algoritmo
Para empezar, Gaiden se preguntó: "¿Se puede engañar a una máquina?". Uno de los problemas que más le preocupaban era el posible efecto uncanny valley (o valle inquietante), una hipótesis extendida en el campo de la robótica y la animación 3D que sostiene que cuanto más realista es una figura generada por ordenador, más rechazo causa entre los humanos. Es decir, por muy realista que sea una cara artificial, sabemos de alguna modo que no es real sino una copia.
"Cuando vi el anuncio del videojuego pensé: 'Parece real, pero no lo es'; por eso quise comprobar si esta hipótesis del valle inquietante también tenía lugar cuando es un programa informático el que tiene que procesar y entender la imagen", afirma el cientifico.
"Lo que hemos descubierto en nuestro experimento", prosigue, "es que copiar imágenes reales y generarlas de nuevo con el motor del videojuego no afecta al aprendizaje del software, no hay efecto valle inquietante en la inteligencia artificial". "Por tanto, podemos engañar al algoritmo", asegura Gaiden.
El siguiente paso fue tratar de usar esta realidad 'de videojuego' para entrenar programas de reconocimiento visual que usan inteligencia artificial. "Hay investigaciones previas, sobre todo con tareas de básicas como la percepción de imágenes primitivas, áreas o bordes, para poder predecir el movimiento de un pixel y cosas así", comenta el informático, que apunta: "Podemos entrenar a un sistema primero en un entorno virtual y luego usar unos pocos datos reales para completar su entrenamiento, así como para comprobar si ese entrenamiento ha sido correcto".
Más eficiente
Este grupo de investigadores se ha propuesto demostrar que esta forma de aprendizaje visual para máquinas es más eficiente. "Entrenar inteligencia artificial requiere de una enorme cantidad de datos, especialmente los programas que han de interpretar imágenes, el mundo visual es supercomplejo", se lamenta Gaiden. "Google o Facebook pueden hacerlo sin problemas, tienen una cantidad astronómica de datos, pero incluso para Google a veces es complejo analizar vídeos de YouTube o emisiones en directo".
"La eficiencia en este caso significa que puedes hacer que una máquina aprenda con menos cantidad de datos, lo que es un avance", afirma. "Iniciamos su aprendizaje de un programa en el mundo virtual, como si fuera su guardería, y después los graduamos en el mundo real con sólo unos pocos ejemplos, para afinar su entrenamiento".
Los informáticos de Xerox buscan varias aplicaciones a esta forma de aprendizaje de las máquinas, como sistemas para encontrar plazas de aparcamiento en tiempo real, o incluso para el análisis del comportamiento de enfermos hospitalizados, de modo que a partir de las imágenes de los gestos del paciente captadas por las cámaras un ordenador pueda interpretar si se encuentra mal.
"No te fíes"
Para este investigador de Xerox, "existen muchas inteligencias artificiales especializadas, como las que se usan en algunos sistemas en los coches modernos". No obstante, es más escéptico al hablar de inteligencia artificial en general: "No hemos llegado al momento en el que una máquina pueda hacer mejor todo lo que una mente humana hace, y no creo que ni siquiera lo veamos a medio o largo plazo", asegura. "Podemos crear programas realmente inteligentes y sofisticados pero, como los propios humanos, no existe una inteligencia sino varias".
En este campo, los algoritmos son cada vez más complejos y las normas, difusas. "Yo diría que no te fiaras de nada relacionado con la inteligencia artificial, a medida que los algoritmos son cada vez más poderosos".
Interesado especialmente en la seguridad, Gaiden está preocupado porque estos programas ya no se rigen por reglas conocidas: son tan complejos que se desconoce su funcionamiento e incluso son qué finalidad fueron creados, a medida que van aprendiendo.
"Tiene que existir alguna manera de comprobar qué es lo que están haciendo exactamente los algoritmos, porque ése es el problema, esa es la razón por la que se les llama black boxes (cajas negras): ya no hay reglas, los fenómenos son cada vez más complejos, incluso las propias estadísticas son en sí black boxes".
Por eso, defiende el uso de la simulación como una manera de entender el comportamiento de un software y su finalidad. "Es una forma de permitir a la gente ver cómo reacciona un algoritmo frente una situación simulada y decidir si le gusta o no". "Soy un científico, para mí el conocimiento es poder", añade, y concluye: "¿Cómo podemos hacer que ese conocimiento sea accesible para todo el mundo, en matemáticas, en computación o en lo que sea? Creo que la simulación es un camino para conseguirlo".