Elon Musk, una de las personas más seguidas y admiradas del mundo, con mayor reputación y logros demostrados a la hora de enfrentarse a retos tecnológicos como el vehículo eléctrico, la generación de energía o la exploración del espacio, ha reclamado una regulación urgente de la inteligencia artificial por su carácter de amenaza existencial para la humanidad, antes de que sea demasiado tarde.
El genio sudafricano se une así a otras personalidades, como el físico teórico Stephen Hawking o el fundador de Microsoft, Bill Gates, al prevenir al mundo sobre los peligros de la inteligencia artificial. Pero... ¿existen realmente esos peligros? ¿Son realmente estas personas, si evitamos caer en la conocida falacia de autoridad, expertos en ese campo? ¿Tiene sentido tanta prevención? ¿Realmente existe la famosa “hipótesis Terminator”, por la cual supuestamente las máquinas toman conciencia de sí mismas y eliminan a los humanos?
La realidad es que ninguno de los autores de esas declaraciones trabajan en el desarrollo de la llamada inteligencia artificial. La inteligencia artificial es, por el momento, una serie de hipótesis y conjeturas de futuro, un conjunto de tecnologías que, a medida que maduran y alcanzan cierto nivel de desarrollo, se independizan de ella. El machine learning, la capacidad de que una máquina aprenda sin ser explícitamente programada para ello a partir de unos datos, es, en cambio, una realidad por cuyo desarrollo y aplicación pagan cientos de empresas muy destacadas en todo el mundo. Soluciones reales a problemas reales.
El salto conceptual que se da cuando vemos a un algoritmo ganar al ajedrez, al Jeopardy, al Go o al póker para pasar a pensar que es capaz de cualquier cosa que la inteligencia humana pueda abarcar es comprensible... pero no es real. Esos algoritmos son capaces de desarrollar una serie de tareas en contextos estables hasta el punto de superar a humanos altamente competentes, pero solo cuando las circunstancias son altamente predecibles, las reglas son claras y resulta razonablemente fácil recolectar gran cantidad de datos de entrenamiento. No es poca cosa: muchos problemas y decisiones de nuestra vida actual responden a esos esquemas. De ahí a inteligencias complejas, capaces de tomar decisiones autónomas en problemas de ámbito general y sin restricciones, va un mundo. Es, según Andrew Ng, como “preocuparse por la superpoblación y la contaminación en Marte cuando aún no hemos puesto un pie en ese planeta”.
Regular e hiper-legislar una tecnología cuando está en sus inicios es una forma segura de hacer las cosas mal. Por favor, pongamos los miedos irracionales en su sitio.