Las redes sociales, criticadas por la difusión de videos violentos como el de Christchurch

¿Cómo pudo el video de la masacre de Christchurch difundirse tan ampliamente en internet? Las redes sociales se mostraron una vez más incapaces de frenar un contenido violento, alimentando los llamamientos a controlar estas plataformas tentaculares.

 


El asesinato de 50 personas en dos mezquitas neozelandesas el 15 de marzo fue emitido en directo en Facebook por su autor, que había preparado minuciosamente la masacre con fines de propaganda.


Ampliamente redifundido, el video todavía era visible este viernes en varios sitios y seguramente sobrevivirá en la web, especialmente en foros supremacistas blancos y de adolescentes fascinados por la violencia.


En las 24 horas posteriores al ataque, Facebook aseguró haber retirado 1,5 millones de copias del video.


Tanto esta plataforma como YouTube (filial de Google) trataron de justificarse, destacando los esfuerzos realizados hasta ahora para evitar la propagación de este tipo de contenidos, recordando que su misión es ante todo "dar voz a las personas y acercarlas", en palabras del fundador de Facebook, Mark Zuckerberg.


"Nuestros sistemas de inteligencia artificial se entrenan con datos, lo que implica el tratamiento de miles de ejemplos para detectar un determinado tipo de texto, imagen y video", subrayó el miércoles el vicepresidente de Facebook, Guy Rosen. "Este método funciona muy bien con los desnudos, la propaganda terrorista pero también con la violencia. No obstante, este video en particular no llamó la atención de nuestros sistemas de detección automática".


"Esta tragedia estaba prácticamente concebida para ser viral", estima Neal Mohal, responsable de producto en YouTube, en una entrevista con el Washington Post. "Hemos progresado, pero esto no quiere decir que no nos quede mucho trabajo por hacer".


Creadas hace menos de 15 años, las redes sociales tratan de resolver uno por uno los problemas que supone la total libertad de expresión que permiten en sus plataformas y que están relacionados con la difusión de propaganda terrorista, de contenidos pedopornográficos o de imágenes íntimas de individuos sin su consentimiento.


Facebook, que tiene en sus manos datos personales y sensibles de sus usuarios, permitió sobre todo su uso con fines de manipulación electoral; YouTube se resiste a controlar los videos complotistas; Instagram es escenario a su vez de la difusión de mensajes de odio, y en otras redes sociales se registraron filtraciones de datos masivos.


Con la difusión en directo de la masacre de Christchurch, las críticas se multiplicaron.


La primera ministra neozelandesa, Jacinda Ardern, instó a los gobiernos de todo el mundo a hacer frente al problema.


Pero ¿cuáles pueden ser las soluciones? 
"Si queremos que la moderación sea eficaz, antes que nada hay que dejar de externalizar (los equipos de control de contenidos) a países que no tienen las mismas referencias culturales" que los países donde estos se divulgan, según Olivier Ertzscheid, profesor de Ciencias de la Información de la Universidad de Nantes (Francia).


"Por otro lado, basarse en la inteligencia artificial es exponerse a riesgos de censura tan graves como la difusión" de contenidos violentos.


O bien estas plataformas vuelven transparentes sus criterios para publicar o valorar algunos contenidos o bien "hay que plantearse su desmantelamiento", según Ertzscheid.


Para Jean Burgess, profesor en la Universidad de Tecnología de Queensland (Australia), "está claro que las plataformas se esforzaron más en proteger los derechos de autor que en vigilar los contenidos racistas, misóginos o de supremacistas blancos", subrayó en Twitter.


Las plataformas juegan ahora al "juego de golpear al topo", tratando de atacarlo cuando ya sale del hoyo. Con el riesgo, afirma, de "ir siempre a la zaga respecto a los grupos extremistas que tratan de utilizar las redes sociales en su beneficio".

 

  • Visto: 331