Aún recuerdo la broma de Nicholas Negroponte en su conferencia hace años en la Ciudad de las Ciencias de Valencia sobre que “…en 2015 habrá más Barbies conectadas a internet, que humanos”. Broma que despertó sonrisas entre los asistentes, que la tomaron como una exageración. En 2011 se midió que el 51% del tráfico de internet ya era no humano, es decir estaba producido por interacción entre máquinas y software. El augurio de Negroponte se cumplió de sobra, sobre todo desde que se está desplegando en el internet de las cosas (IoT).
En el internet actual ya hay una vuelta de tuerca más en el uso de la red por parte de las máquinas y su automatización. Ya no hay solo esa interacción entre máquinas sin intervención humana, sino que también hay interacción entre humanos y máquinas en la que, en muchos casos, las personas ignoran que están interactuando con máquinas y no con otros humanos, como probablemente ellos creían. Lo hacen con los bots de internet, o sea, máquinas o ‘agentes’ de software (generalmente de inteligencia artificial) que interactúan con humanos, como si también lo fueran. Son tomadas como personas conectadas a la red, pero sólo son software. Máquinas que, desde ese punto de vista, es como si hubieran pasado nuestro Test de Turing personal.
Pondré un ejemplo, a partir de una reciente investigación de cuatro científicos del Laboratorio de Computación de la Universidad de Cambridge, sobre la clasificación de cuentas de Twitter con interacción entre agentes automatizados y usuarios humanos, llamada De robots y humanos (en Twitter).
Esta ponencia, que se presentó hace unos meses en la 9ª Conferencia Internacional IEEE/ACM sobre Avances en Análisis y Minería de Redes Sociales que tuvo lugar en Sydney (Australia), analiza algo que está de actualidad, sobre todo, porque la interacción entre bots y humanos en redes sociales se ha vuelto relevante, fundamentalmente en áreas como el estudio de la actividad automatizada de los bots de Twitter, y en otras redes sociales como Instagram, Facebook, WhatsApp, etc., por su uso actual en infiltración política (subrepticia) y con las fake news, en campañas publicitarias inducidas en el ámbito global.
La dimensión del ‘twitter no humano’
Los investigadores se han centrado en Twitter y, como si de un metaproceso se tratara, han utilizado herramientas de automatización estadística para analizar millones de interacciones en la red social para intentar detectar y diferenciar a gran escala, las acciones realizadas en twitter por robots de software, de las realizadas por humanos. Y conseguir, de esta manera, entre otros datos, conocimientos sobre de la magnitud que alcanza el ‘Twitter no humano’.
La noticia, de hace unos meses, en Cambridge un titular que me decepcionó un poco: “Las cuentas de Twitter de celebrities (de famosos, es decir aquellas con más de 10 millones de seguidores), muestran un comportamiento similar al de un robot”. Pero en el documento, emerge una idea descrita, muy interesante: en nuestro uso de twitter estamos leyendo, retuiteando textos o contenidos, muchas veces colaborando en interacciones que son creadas, elaboradas o expandidas por máquinas que, la mayoría, no distinguimos de humanos en nuestra dinámica de la red social.
Es decir, estamos sin saberlo colaborando frecuentemente con máquinas de Twitter que han pasado nuestro personal Test de Turing en esta red social. Intrigado por esta idea, entré al detalle de la investigación de estos científicos de Cambridge (R. Farahbakhsh, G. Tyson, L, Wang, J. Crowcroft), que han realizado en equipo con Zafar Gilani, que investiga en inteligencia artificial y ciencias sociales computacionales utilizando aprendizaje automático y análisis de datos.
En este estudio también he descubierto que Twitter no es solo el sitio que yo creía, sino un lugar donde el incremento de actividades oportunistas con diversos fines (no todos piadosos, precisamente), está creciendo exponencialmente. Según Gilani y sus colegas, es una plataforma ideal para actividades oportunistas como la comunicación de noticias, de emergencias, para promoción empresarial o campañas políticas, pero también para el spam y la difusión de contenidos falsos con intenciones maliciosas y engañosas. Y la inmensa mayoría de estas actividades oportunistas ya se explotan masivamente a través de programas automatizados, como los bots, o robots de software que en su más alta escala de evolución son agentes de inteligencia artificial.
Los robots en internet, como las personas, pueden ser maliciosos o benignos
Es interesante la clasificación que en el estudio se hace, según su comportamiento en Twitter, tanto de usuarios humanos como de usuarios no-humanos, o sea bots. Los investigadores consideran que los robots, al igual que las personas, pueden ser maliciosos o benignos. Aunque el término bot se asocia a menudo con spam, contenido ofensivo o con la infiltración política, ahora mismo muchas de las empresas y organizaciones más reputadas del mundo también confían a bots sus canales de medios sociales. Por ejemplo, prestigiosas empresas periodísticas, como CNN o BBC, que producen cientos de piezas de contenido noticioso a diario, usan la automatización mediante robots de software para compartir las noticias de manera optimizada y eficiente. Estas cuentas, aunque clasificadas como de bots, son vistas por los usuarios, por ahora, aún como fuentes fiables de información.
Pero hay un pequeño detalle, lo reitero. Estoy convencido de que gran cantidad de lectores de esas noticias, no saben que están leyendo contenidos formateados y difundidos por robots (contenidos que lo usuarios colaboramos en difundir y a veces en viralizar). Es decir, los lectores confiamos en la marca del medio de comunicación, pero estamos interactuando en realidad con bots y, probablemente, en su inmensa mayoría, no lo sabemos a ciencia cierta. Lo mismo que la mayoría de usuarios de Twitter, una red social en la que se estima que entre el 40 y el 60% de todas las cuentas son de bots. Algunas de esas cuentas de bots tienen decenas de millones de seguidores, aunque, según el estudio, la gran mayoría tiene menos de mil. Las cuentas humanas tienen en esa red social una distribución similar.
Entonces, pregunto al lector: ¿en la identidad visible de la cuenta de twitter se debería advertir al usuario, que el perfil que está leyendo es de una máquina y no de una persona? Yo creo que sí. Tal vez algún día nos dé igual estar tratando con una máquina o con una persona, pero hoy por hoy, no me da igual. Y en Twitter para el lector normal se han vuelo casi indistinguibles. Personalmente, si estoy tratando con máquinas y no con personas, me gustaría saberlo. Lo mismo que me gustaría saber al leer una cosa en internet, si es ficción (o noticia falsa), o si es algo que ha sucedido realmente. Por si acaso. No distinguirlo puede inducir a engaño. ¿Nos gusta que usen mecanismos de internet (en este caso Twitter) para engañarnos? Va a ser que no.