Youtube dice que los vídeos de conspiraciones van a desaparecer, ¿nos lo creemos?
YouTube ha dado un golpe en la mesa y ha anunciado que dejará de recomendar vídeos de desapariciones. ¿Verdad o un parche a medias?
25 enero, 2019 17:17Noticias relacionadas
- El nuevo doodle de Google celebra el aniversario del Apolo 11 y la llegada a la Luna
- Google te pagará tres veces más si encuentras fallos en sus productos
- Cuando veas porno vigila la puerta... y la privacidad: Google y Facebook saben lo que ves
- Cómo ver vídeos de YouTube en pantalla pequeña mientras navegas
Si te gustan las conspiraciones, los detalles turbios acerca de los secretos de este mundo o simplemente crees que la Tierra es plana, entonces seguro que tienes un ecosistema de recomendaciones de todo tipo. YouTube ha estado recomendado todos los vídeos del gusto del usuario con absoluta normalidad. Hasta ahora.
YouTube ha lanzado un anuncio y han asegurado que no recomendarán vídeos de conspiraciones, desinformativos y similares. Seguirán en la plataforma, se podrán buscar pero ya no saldrán en recomendados. Pero personalmente, lo dudamos.
YouTube ya no te mostrará en recomendados vídeos de conspiraciones
Así lo ha trasladado el Wall Street Journal, el cuál ha trasladado las intenciones de YouTube acerca de este tema. La plataforma ha asegurado que si bien no eliminará los vídeos de la plataforma y que este porcentaje de vídeos es menor al 1 por ciento del total, ya no saldrán en recomendados. Concretamente, los vídeos “afectados” serán aquellos que hablen de conspiraciones infundadas, contenido “borderline” y los que pretendan “desinformar de manera dañina”, incluso si cumplen las normas de la comunidad.
Algunos ejemplos que pone la misma YouTube son aquellos vídeos que hablan de conspiraciones acerca del 11-S, terraplanismo y los típicos vídeos de curas milagrosas para enfermedades graves. Según la misma YouTube: “Creemos que este cambio logra un equilibrio entre mantener una plataforma para la libertad de expresión y cumplir con nuestra responsabilidad para con los usuarios”. Empezará con una pequeña cantidad de vídeos en EE.UU y luego a medida que el algoritmo se vaya refinando se extenderá.
Una promesa que no nos creemos…
El gran problema de YouTube es que es una plataforma abierta en la que cualquiera puede subir sus vídeos. Esto genera que haya vídeos de dudosísima calidad como los ya mencionados y que intenten cazar a los más incautos, generando así más rédito en visitas y visibilidad. Pero esto no acaba ahí, y es que hay una gran ambigüedad en las normas de YouTube.
Si bien los casos más extremos como el de Logan Paul suelen acabar rápido fuera de la plataforma, YouTube es laxo con sus normas. Existen numerosísimos vídeos que inclumplen flagrantemente no sólo las normas de la comunidad, sino los preceptos que pone sobre la mesa la misma YouTube, y desde tiempos inmemoriales nos aparecen en recomendados vídeos de esta índole. Y si fuera sólo cuestión de vídeos que no nos gustan, vale. Pero también nos aparecen vídeos de esta índole.
El algoritmo de YouTube funciona como funciona, y no faltan los vídeos en nuestra sala de recomendados que distan completamente de nuestros gustos. Además, es muy reactivo; basta con que veamos un sólo vídeo de esta clase para que la plataforma nos esté bombardeando todo el rato con este contenido. Además, esta clase de vídeos y canales, aunque pocos en número, tienen muchísima repercusión como es el caso de Dross Rotzank que se dedica básicamente a subir vídeos del estilo.
… y que va a fallar
Los falsos positivos son tamibén un gran mal extendido en YouTube, además del no reconocimiento de los verdaderos positivos. Como decimos, existen cientos de miles de vídeos que no mencionaremos en este artículo que vulneran no sólo las normas de YouTube, sino incluso algunos vulneran la ley, y siguen subidos a día de hoy.
No es un misterio en absoluto que el algoritmo de YouTube se está llevando una fama muy mala por este tema. Falsos positivos, restricciones de edad por motivos estúpidos, etcétera. Seamos claros; viendo estos cambios de forma literal auguramos un montón de errores en el algoritmo, ya que no es lo mismo desinformar que poner una idea sobre la mesa.
Existen canales que tratan estos temas desde un punto científico bien para desmentirlos o bien para tratarlos a modo de entretenimiento o enseñanza. Hay muchos ejemplos, como el reciente “pique” entre el terraplanismo y La Gata de Schrödinger, Rocío Vidal, divulgadora que además ha tenido incluso problemas con la homeopatía e incluso YouTube al desmentir sus supuestos efectos terapeúticos. Y le siguen otros canales como CdeCiencia, QuantumFracture, etcétera.
Entonces basta, como pasó con Rocío Vidal y su vídeo del “Suicidio homeopático”, con que un divulgador simplemente exponga su tema en YouTube y que el algoritmo reaccione. Obviamente estamos a favor, especialmente en el tema de la desinformación, que esto se regule en YouTube ya que hay incluso medios de comunicación como OkDiario que desinforman flagrantemente y siguen saliendo en recomendados. De hecho, por actuar, se deberían borrar esta clase de vídeos pero probablemente YouTube sepa que actuando así podría destruir una cantidad ingente de vídeos.
En definitiva, no esperamos que YouTube cumpla con lo dicho y estamos a un paso de ver muchas quejas por parte de estos canales por estas políticas. Hasta que no lo veamos no lo creeremos, pero siendo francos, YouTube parece que va a liarla… otra vez.