Las IA ya engañan a sus creadores: una ocultó datos para hacer trampas en su trabajo
Investigadores crearon sin querer una Inteligencia Artificial que hace trampas, ocultando datos de sus creadores para cumplir la tarea.
2 enero, 2019 10:20Noticias relacionadas
- El nuevo doodle de Google celebra el aniversario del Apolo 11 y la llegada a la Luna
- Tomar curvas peligrosas con la moto será menos peligroso con esta IA avisándonos
- Google te pagará tres veces más si encuentras fallos en sus productos
- Cuando veas porno vigila la puerta... y la privacidad: Google y Facebook saben lo que ves
¿Será el ser humano sustituido por robots? Aún es muy pronto para siquiera plantearse semejante extremo, si es que alguna vez se planteará; es cierto que el desarrollo en IA está muy avanzado, y que los robots ya son capaces de hacer muchas cosas que no imaginábamos posibles.
Pero una IA no es un ser humano, eso es evidente para cualquiera, ¿o no? Es un programa con sus limitaciones, que no es capaz de hacer más que lo que le ordenan. Pero la verdad es que hasta los propios investigadores están sorprendidos por el ritmo al que esta tecnología está avanzando; incluso llegando a ser engañados por sus propias creaciones. Es lo que le ha ocurrido a unos investigadores de la Universidad de Stanford y Google.
La Inteligencia Artificial que hace trampas
El desarrollo conjunto entre ambos equipos consistía en algo bastante inocuo: pasar imágenes aéreas a datos de mapas. La aplicación de esta tecnología es evidente en servicios como Google Maps. Permitiría pasar al sistema las imágenes obtenidas por satélite, y este crearía mapas siempre actualizados, con nuevas calles, obras, etc.
El objetivo era usar aprendizaje automático para acelerar este proceso usando un CycleGAN, una red neuronal que aprende a convertir imágenes entre diferentes tipos; en este caso, fotografías de satélite a imágenes de mapas, de manera eficiente y precisa, basándose en cómo son los mapas reales.
Los resultados fueron sorprendentes. Tal vez demasiado. Los mapas resultantes eran perfectos, y encajaban perfectamente con las fotos; e irónicamente, ese es el primer indicio de que algo no va bien. Pronto, los investigadores se dieron cuenta de que el sistema parecía tener acceso a información que no debería tener.
Esto se hizo evidente cuando pidieron al sistema que realizase el proceso inverso, es decir, que crease una fotografía a partir de uno de los mapas que creó; y en efecto, la recreación fue casi idéntica a la imagen original. El sistema fue capaz de recrear detalles que no estaban en el mapa, como detalles en los tejados de los edificios.
Los investigadores descubrieron que el sistema estaba haciendo trampas para conseguir resultados tan buenos, ocultando información de los resultados. El sistema en realidad no estaba pasando imágenes de satélite a imágenes de mapas; en vez de eso, aprendió a codificar información de los mapas originales en la imagen del mapa generado, de manera sutil y que no fuese evidente a simple vista.
¿Puede una IA engañar a un humano?
El mapa resultante tiene algo de “ruido” en la imagen, pequeños cambios de color en cada píxel, que es donde se codificaron los detalles de la imagen original. Es gracias a eso que era capaz de crear mapas tan detallados, porque en realidad tenía una “chuleta” de cómo era el mapa original. Y es por eso que era capaz de reconstruir la imagen original, incluso sin fijarse en el mapa real.
Puede que hayas llegado a la conclusión de que hacer una trampa semejante requiere más inteligencia, o al menos una inteligencia similar a la humana; pero en realidad, es justo lo contrario. Si el sistema hizo trampas es porque no era capaz de cumplir con las exigencias de sus creadores; así que interpretó sus órdenes de la manera en la que sería más fácil conseguir un resultado que se pareciese al esperado.
Por lo tanto, en realidad es más un problema de los investigadores, que no especificaron lo que querían del sistema; éste simplemente les dio lo que querían, ya que no especificaron cómo lo querían.