Big Ideas: de la adolescencia de Oracle a los experimentos con 'fake news' de Twitter
Este mes hablamos de la hipocresía de Amazon Web Services respecto al racismo y de la alianza entre Tik Tok- Oracle
1 octubre, 2020 07:00En Estados Unidos continúan las protestas por las recientes actuaciones policiales desproporcionadas y crueles contra personas negras. Algunas de ellas, quedando sorprendentemente impunes, como los tres policías involucrados en el asesinato sin sentido de Breonna Taylor que no serán acusados de delito alguno.
Una decisión judicial que el CEO de Amazon Web Services, Andy Jassy, ha criticado con dureza, subiéndose al carro del movimiento social que reclama la igualdad y la importancia de las vidas de este colectivo. Una postura totalmente loable, de no ser porque su firma tiene un largo historial de servicios de inteligencia artificial plagados de sesgos raciales y de género que trataron de minimizar durante mucho tiempo.
En una de esas decisiones alocadas de Donald Trump, Tik Tok se vio obligada a encontrar un socio o comprador norteamericano si quería seguir operando en el país . Y aunque parecía que Microsoft sacaría provecho de la situación, finalmente ha sido Oracle la que se ha hecho con una participación minoritaria en la red social favorita de los adolescentes, además -y esto es lo importante- se convierte en su socio tecnológico.
Oracle, que partía en gran desigualdad en el terreno cloud frente a los tres colosos (AWS, Azure y Google) e incluso frente al binomio IBM-Red Hat, ha conseguido este año sumar no solo a Tik Tok, sino a la imprescindible Zoom. Se caldea la guerra en las nubes.
El fenómeno de la desinformación está continuamente en las agendas públicas de medio mundo. Y el caldo de cultivo favorito para la propagación de estas ‘fake news’ son las redes sociales, no es novedad. Pues bien, parece que Twitter ha encontrado una fórmula para reducir este problema, y no va de complicadas tecnologías ni controvertidos verificadores.
Lo que la plataforma ha hecho es, simplemente, añadir un aviso pidiendo que el usuario lea el artículo en cuestión antes de compartirlo. ¿El resultado? Las personas abren artículos un 40% más a menudo después de ver el mensaje y muchos de ellos finalmente rectifican y no difunden el contenido tras leerlo. ¿Y si la solución a las ‘fake news’ era tan simple como pedirnos que leamos más?
rn