Uno de los libros recientes que nos sumergen en el nanocosmos se ha publicado con un título nada original: Nanotecnología. Su autor, Peter E. Maxwell, lo ha subtitulado Revolucionando la ciencia, la tecnología y la medicina y constituye un amplio, aunque poco profundo, repaso de los campos de la investigación y la industria que se han visto impactados por el conocimiento en la nanoescala y el mundo cuántico donde materiales y dispositivos exhiben propiedades y comportamientos asombrosamente únicos y diferentes del “mundo clásico”.
Aparte de su valor compilativo, el libro introduce algunas reflexiones con las que los socios del Nanoclub de Levi de Disruptores e Innovadores andamos algo familiarizados. Una de las más profundas es que la nanotecnología fue la Inteligencia Artificial de su tiempo, es decir, que hace más o menos dos décadas, la incipiente investigación en nanotecnología era comparable en su percepción a la IA. Tanto por los desafíos que se abrían a su paso como por el deseo y la búsqueda de un desarrollo responsable y beneficioso de la tecnología para la humanidad.
La nanotecnología se ha considerado durante años un elemento extraño, novedoso y sorprendente. Pero, a la vez, se ha llegado a un consenso científico que le otorga también un carácter familiar y manejable. Un estado de opinión lleno de dudas, miedos e inquietudes que explican, por ejemplo, el trasfondo de la reciente crisis por la salida de Sam Altman de OpenAI, calificada de “telenovela” por el director de D+I, Alberto Iglesias Fraga.
Un factor muy relevante de la ciencia actual (especialmente de la nanociencia) es que las teorías clásicas no pueden describir los fenómenos cuánticos y las teorías cuánticas son inapropiadas para describir los fenómenos clásicos. Por eso el nanomundo es un territorio exótico en el que propiedades 'clásicas' como el color y la conductividad emergen cuando uno desciende hacia 'niveles cuánticos' y donde otros fenómenos emergen en el camino inverso.
En un ensayo titulado NanoTecnociencia para Filósofos de la Ciencia, Alfredo Normann explica que lo que hace que los fenómenos a nanoescala sean científicamente interesantes es que no pueden describirse adecuadamente desde ninguna de las dos perspectivas, pero lo que hace posibles las nanotecnologías es que los enfoques clásico y cuántico resultan suficientemente ingeniosos cuando se trata de reconstruir estos fenómenos. Tan apasionante como perturbador.
Estas circunstancias han provocado que, durante años, las innovaciones a escala de átomos y moléculas individuales regaran la semilla de un hipotético riesgo existencial para la humanidad. Un escenario apocalíptico dibujado en las historias de ciencia ficción Kim Eric Drexler, autor de “Engine of creation”, obra de referencia de la literatura de nanoficción.
En ese libro, unas máquinas llamadas nanoemsambladoras construían materiales molécula a molécula y, en su afán de multiplicarse, acababan consumiendo toda la materia orgánica. La Tierra se imaginaba reducida a una masa sin vida repleta de nanomáquinas. Era la “cosa” o la “sustancia” gris.
Efectivamente, a finales de la década de 1990, la nanotecnología pasó de ser una idea radical y un tanto marginal -susceptible de ser ficcionada aún a riesgo de distorsión- a ser aceptada por la corriente principal de la opinión pública. El gobierno de EEUU y otros países aumentaron la inversión en la llamada “próxima revolución industrial”, la que llegaba de “dar forma al mundo átomo por átomo”.
Eran los años del rechazo público a los cultivos genéticamente modificados, de las lecciones aprendidas del ADN recombinante y del Proyecto Genoma Humano. La nanotecnología generaba crecientes preocupaciones de que se manejara mal. De hecho, hubo episodios de violencia grave, como la interceptación por parte de la policía suiza de tres miembros del Frente de Liberación de la Tierra (ELF) en abril de 2010 cuando intentaban bombardear un laboratorio de nanotecnología asociado con IBM Zurich.
En un ejercicio que hoy vemos algo extravagante, pero que causó impacto a principios de los 2000, el cofundador de Sun Microsystems, Bill Joy, publicó un artículo en la revista Wired en el que daba alas a la teoría de los nanorobots autorreplicantes y el apocalipsis de la “sustancia gris”. Al igual que ocurre hoy con la IA, existía preocupación por el efecto en los empleos a medida que una nueva ola de habilidades y automatización arrasaba el mercado laboral.
Hoy existe una creciente preocupación sobre los riesgos asociados a la IA, igual que a principios de los 2000 se hablaba de los desafíos tangibles de la nanotecnología y su posible impacto ambiental o en la salud, en cuestiones sociales y éticas, o en su regulación o gobernanza. En ese momento, trabajar en el desarrollo responsable de la nanotecnología era como jugar al azar. Por cada solución, parecía haber un nuevo problema.
Sin embargo, hubo hitos que permitieron superar aquellos miedos. En EE.UU.por ejemplo, se lanzó la Iniciativa Nacional de Nanotecnología, que incorporó a múltiples agencias, académicos, investigadores y desarrolladores para comprender mejor los riesgos y beneficios de la nanotecnología. También a educadores o activistas en busca de garantías. En 2003, la Ley de Investigación y Desarrollo de Nanotecnología del Siglo XXI se convirtió en ley y codificó aún más este compromiso de participación. Y dos años más tarde, la Comisión Europea, junto al Parlamento y el Comité Económico y Social lanzaron la comunicación Nanociencia y nanotecnologías: un plan de acción para Europa 2005-2009.
Aunque las aspiraciones de entonces son similares a las de ahora, existe cierto consenso en que no existen los mismos niveles de diversidad y compromiso. El desarrollo de la IA, en comparación, es mucho más excluyente. La Casa Blanca ha dado prioridad a las consultas con los directores ejecutivos de las empresas de inteligencia artificial y las audiencias del Senado han recurrido a expertos técnicos , cerrando el paso al público, a los formuladores de políticas y a cualquier experto ajeno al dominio de la IA, con el argumento de que un no experto no puede llegar a comprender completamente los detalles íntimos de la tecnología.
No sé si realmente se puede considerar un error. Lo que está claro es que con la nanotecnología funcionó un enfoque distinto. Menos excluyente y más colaborativo y diverso. Algo que, tal y como han defendido los profesores Maynard y Dudley en Nature Nanotechnology, podría servir también ahora con la IA, llamada a ser la tecnología más transformadora que se recuerde.
Ambos han dejado escrito: “Si la sociedad no aprende del pasado para navegar con éxito estas transiciones inminentes, corre el riesgo de perder las promesas que contienen y enfrenta la posibilidad de que cada una cause más daño que bien”.