Todos los datos preliminares apuntan a que la vacuna de AstraZeneca es segura y la Agencia Europea del Medicamento (EMA) lleva días insistiendo en que sus "beneficios superan a los riesgos de sus efectos secundarios". Sin embargo, ante la avalancha de titulares sensacionalistas y desinformación, el organismo está analizando el asunto en profundidad, y hoy mismo emitirá una nueva declaración oficial.
Nadie duda de que toda innovación capaz de atentar contra la salud debe ser analizada hasta el extremo. Sin embargo, si algo nos ha enseñado la pandemia es que el miedo puede convertirse en una amenaza cuando carece de fundamento. Por eso, dada toda la ciencia previa que avala la vacuna de AstraZeneca, me sorprende tanto que varios países, incluido el nuestro, hayan decidido suspenderla.
Los críticos argumentan que esta paralización no hace más que aumentar las muertes y ralentizar la salida de la pandemia. Pero, claro, ¿quién es el guapo que se atreve a mantenerla en una sociedad que lleva un año sufriendo y recibiendo información contradictoria y alarmista?
Para variar, parte de la culpa de esta situación la tienen las plataformas y redes sociales. ¿Sabía que la mayoría del contenido en Facebook que expresa o fomenta el escepticismo sobre las vacunas contra el coronavirus fue difundido por un diminuto subconjunto de usuarios? Así lo afirma un estudio interno de la red social al que ha tenido acceso The Washington Post.
¿Sabía que la mayoría del contenido en Facebook que expresa o fomenta el escepticismo sobre las vacunas fue difundido por un diminuto subconjunto de usuarios?
El hecho de que las publicaciones de unos pocos sean en gran parte responsables del clima de miedo generalizado ante las vacunas es un ejemplo más del enorme problema de la falta de regulación de las innovaciones que no tienen un impacto directo sobre la salud y la vida humana.
El principio de precaución típico de la investigación biotecnológica con el que los países argumentan la suspensión de AstraZeneca brilla por su ausencia cuando se trata de la industria del software. Desde hace décadas, este sector ha tenido vía libre para crear, lanzar y comercializar productos y servicios cuyo enorme impacto negativo no hemos empezado a ver hasta hace poco.
¿Cómo es posible que nos preocupen más los organismos modificados genéticamente cuya seguridad está probada que los algoritmos que se ha demostrado que discriminan, fomentan el odio y atentan contra la democracia? ¿Dónde está el principio de precaución para la Inteligencia Artificial?
No quiero decir que la biotecnología deba regularse de forma más laxa. Bueno, en algunos casos sí. La Sociedad Internacional para la Investigación con Células Madre acaba de preparar un borrador de recomendaciones para ampliar sus capacidades científicas tras 40 años sujeta a la norma de suspender cualquier investigación con embriones humanos a los 14 días de desarrollo como tarde.
En su día, esta norma se impuso para evitar aberraciones científicas y proteger la vida humana. Y ahora, después cuatro décadas de trabajo y comprensión de la tecnología, su potencial y sus riesgos, la comunidad se siente preparada para dar un paso más en sus investigaciones.
Lo que me aterra es que no haya ningún enfoque de este tipo para otro de innovaciones como los algoritmos de vigilancia predictiva, los de contratación o los de análisis de riesgo, por mencionar unos pocos. Lo que digo es que no podemos permitir que la industria del software sigua lanzando algoritmos con un impacto tan grande en nuestras vidas sin ningún tipo de supervisión ni regulación.
Esto me hace mucha gracia porque, justo hace un par de semanas, el CTO de Facebook, Mike Schroepfer, afirmó que "el impacto de la tecnología debe medirse mientras se desarrolla, no después". Pues a buenas horas, mangas verdes.
La red social es consciente desde hace mucho de su papel en el aumento de la polarización, el odio y la desinformación. Sin embargo, sus opacos algoritmos siguen rigiendo la mayor parte del contenido que ve la mayor parte de la gente. Y, aunque es muy loable que estudie el fenómeno, no deja de hacerlo a toro pasado, tras haberse convertido en uno de los mayores foros mundiales de bulos en torno a la pandemia.
Para abordar este problema, está surgiendo una nueva industria especializada en auditar la ética y el impacto de los algoritmos. Pero las empresas de software no están obligadas a someterse al proceso y muchos expertos dudan sobre su capacidad para entender y analizar el impacto real de los algoritmos. De forma paralela, cada vez más países estudian regulaciones capaces de hacer lo que predica Schroepfer, aunque él no lo cumpla.
Dentro de muy poco sabremos si finalmente los temores de la gente en torno a la vacuna de AstraZeneca se confirman o no eran más que otro miedo infundado. Pero, pase lo que pase con la decisión de la EMA, lo que sí está claro es que deberíamos empezar a tener más miedo de los algoritmos que nos gobiernan porque, a diferencia de las vacunas, a ellos no les gobierna nadie.