Los cimientos de la teoría de la complejidad computacional se remontan a la definición de las máquinas de Turing en 1936. La enciclopedia Británica define la complejidad computacional como el costo inherente de resolver un problema en el cómputo científico a gran escala, medido por el número de operaciones requeridas, así como la cantidad de memoria utilizada y el orden en que se utiliza.
Un análisis de la complejidad computacional estima la velocidad a la que aumenta el tiempo de solución a medida que aumenta el tamaño del problema. Otras áreas muy relacionadas son el análisis de algoritmos y la teoría de la computabilidad.
El autor Richard Gall publicaba un artículo en 2018 para Singularityhub explicando que, si bien las redes neuronales artificiales pueden procesar datos muy específicos a una escala increíble, no pueden procesar la información de la manera rica y multidimensional que puede hacer un cerebro humano.
Los sistemas de inteligencia artificial pueden resolver ciertos problemas complejos o encontrar nuevas formas de resolverlos, pero no pueden definir el problema que intentan resolver.
Este es uno de los motivos principales por los que la inteligencia humana y artificial deben complementarse entre sí para explorar nuevos problemas científicos, médicos, económicos, geopolíticos y ecológicos mucho más complejos y difíciles.
Paco Bree, Academic Director MBI de Deusto Business School