Aunque los algoritmos de YouTube frenaron la viralización de vídeos sobre falsas curas o teorías de la conspiración dentro de su plataforma, estos fueron masivamente compartidos en Facebook y consiguieron millones de visualizaciones, documenta un nuevo estudio de Oxford
— El informe de la viróloga china que dice que el coronavirus se creó en un laboratorio está financiado por Steve Bannon

La gran explosión fue en Facebook, pero las bombas provenían de YouTube. Un nuevo estudio de la Universidad de Oxford sobre la desinformación relacionada con el coronavirus que se compartió en redes sociales durante la primera ola de la pandemia ha documentado que la plataforma de vídeo sufrió un salvaje crecimiento en la producción y publicación de contenidos falsos o inexactos sobre la enfermedad. Esos vídeos acumularon millones de visualizaciones. Pero no fue a través de YouTube, sino que cruzaron una autopista de desinformación que desembocaba en otras redes, muy especialmente Facebook.

La investigación de Oxford ha analizado algo más de un millón de vídeos sobre el coronavirus publicados en YouTube hasta el pasado junio, siguiendo el rastro de aquellos que terminaron eliminados por contener desinformación. Trataban desde supuestas curas inefectivas o peligrosas a tramas de organismos internacionales como la OMS o la ONU para aumentar las cifras de contagios, o teorías de la conspiración sobre Bill Gates o el 5G. Las conclusiones del estudio muestran que si bien los algoritmos de YouTube tuvieron éxito al impedir que esos vídeos se viralizaran en su propia red, fue una política de puertas adentro que no sirvió de nada cuando los usuarios compartían esos vídeos en otras plataformas.

«Esa estrategia no funciona si se realiza de manera aislada», recalcan los seis investigadores firmantes. La muralla contra la desinformación que las grandes plataformas digitales construyeron tras el escándalo de Cambridge Analytica cayó durante la primera ola de la pandemia porque, sorprendentemente, no contemplaba que Internet es una red interconectada. «Aunque YouTube ha aumentado la visibilidad de las fuentes fiables para los usuarios que buscan información sobre la pandemia en su plataforma, nuestros datos muestran que gran parte del tráfico de los vídeos con desinformación venía desde otras, en particular desde Facebook», detallan.

El estudio ha hallado una relación directa entre el número visualizaciones de los vídeos con desinformación publicados en YouTube y el número de veces que son compartidos en Facebook. Destaca que se puede «predecir» el éxito de un determinado vídeo de este tipo en función del número de veces que es compartido en la red social de Mark Zuckerberg. «Es raro que un vídeo con desinformación sobre la COVID-19 tenga muchas visualizaciones a no ser que haya sido frecuentemente compartido en Facebook», abundan.

Seguir leyendo: elDiario.es

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *