Las presentaciones de resultados trimestrales de las compañías son un ejercicio complejo, en el que los directivos que las llevan a cabo tratan invariablemente de ofrecer una imagen positiva pesar de que, en muchas ocasiones, esos mismos resultados no acompañan y no ofrecen demasiadas esperanzas. En muchos casos, hemos visto incluso compañías que, tras haber presentado resultados, sorprenden con la dimisión o el cese de sus principales directivos, o incluso anunciando una bancarrota. Sin duda, cuando los directivos presentan resultados, tienen invariablemente mucha más información de la que realmente comparten con inversores y analistas.
Sin embargo, si algo es cierto es que disponemos, al menos en los Estados Unidos, de una enorme cantidad de presentaciones de resultados de compañías llevadas a cabo en el pasado, y que resulta razonablemente sencillo, dado que tuvieron lugar en el pasado, saber qué ocurrió después.
La situación parece bastante adecuada para poder alimentar un algoritmo generativo con los audios de esas presentaciones de resultados, y facilitarle además un resumen convenientemente tabulado de lo que ocurrió posteriormente, esperando, lógicamente, terminar disponiendo de un algoritmo capaz de predecir, en función de lo que un directivo dice ante los analistas —y también de cómo lo dice— lo que podría ocurrir después.
En algunos análisis preliminares, los investigadores que están persiguiendo esta idea se han encontrado, en primer lugar, con que preferían alimentar al algoritmo mediante grabaciones de voz a hacerlo mediante las correspondientes transcripciones de texto, y que había algunos rasgos que generalmente identificamos con la inseguridad, como el uso abundante de las llamadas filler words o muletillas —el equivalente en inglés de los “bueno…”, “pues…”, “esto…”, etc.— que parecían asociarse con malos augurios para la compañía.
La idea de asociar el audio de los directivos con sus emociones o con lo que realmente transmiten —a diferencia de lo que pretenden transmitir— parece como mínimo interesante, sobre todo para los inversores y los gestores de fondos de inversión, los llamados inversores institucionales, que se juegan muchísimo dinero en ello. Si lograsen identificar, en las presentaciones de resultados de las compañías, esos rasgos que denotan futuros problemas, las consecuencias para el mercado podrían ser muy significativas.
La idea de asociar el audio de los directivos con sus emociones o con lo que realmente transmiten parece como mínimo interesante
Por el momento, este uso de la tecnología es puramente experimental, pero está ya llevando a algunos directivos a intentar impostar un tono mucho más positivo y entusiasta, con el fin de engañar a los algoritmos. Por supuesto, hablamos de resultados muy aproximados: no es lo mismo escuchar una grabación de una persona que de manera natural tiende a ser entusiasta que intentar juzgar a alguien con un tono de voz profundamente monótono o aburrido, pero los que llevamos años entrenando algoritmos sabemos que eso, como tantas otras cosas, se trata simplemente de una cuestión de tiempo y de tener suficientes datos que suministrar en el entrenamiento.
¿Algoritmos en modo “bruja Lola” que nos escuchan y tratan de capturar, en función de lo que decimos y de cómo lo decimos, lo que esperan que ocurra con la compañía? Algo así elevaría mucho el listón de las habilidades directivas, y llevaría seguramente a muchos profesionales de la comunicación empresarial a hacer cursos de interpretación. Pero de nuevo, no es lo mismo resultar convincente ante una audiencia humana que serlo ante un algoritmo con muchísimos datos analizados tras de sí, y la cuestión podría generar no pocas sorpresas.
¿Y si lo hiciéramos con los políticos? ¿Qué está diciendo realmente un político cuando hace determinados anuncios? Cuando se anuncian, por ejemplo, datos de crecimiento económico, cifras de desempleo o determinadas decisiones, ¿sería posible utilizar algoritmos generativos para, en función de lo que se dice y cómo se dice, saber lo que se está realmente anunciando? ¿Podemos construir, mediante algoritmia generativa, una especie de “máquina de la verdad” o polígrafo para políticos como las que se usan en variados programas de telebasura, pero que podríamos aplicar sin necesidad de pedir permiso?
¿Y cómo serían los resultados de esos análisis, considerando que en español ya existe desde hace muchos años la frase “mientes más que un político”, y que en muchas ocasiones sus declaraciones son tan impostadas y tan obviamente mentirosas que pueden casi calificarse como de chuscas? ¿Realmente serviría para algo, o nos diría algo que no supiéramos? ¿Qué diría un algoritmo generativo adecuadamente entrenado cuando los políticos se desdicen sin parar, cuando les traiciona la hemeroteca o cuando nos hablan de una negociación? Francamente, para lo que íbamos a ver hoy en día, creo que casi es mejor que ni lo intentemos…
***Enrique Dans es Profesor de Innovación en IE University.