Logo Computerhoy.com

Facebook promete mejorar los controles de Facebook Live para evitar contenidos violentos

Mark Zuckerberg Facebook

Tras los problemas que ha provocado en Facebook la emisión en directo del atentado de Nueva Zelanda y las incontables veces en que se ha vuelto a subir el vídeo por parte de cientos de usuarios, la compañía de Mark Zuckerberg ha decidido responder a la situación con una nueva política en la emisión de vídeos en Facebook Live para controlar los streaming de contenido violento.

Una de los principales cambios que implantarán será el darle mayor prioridad a los mensajes de aviso que lleguen sobre los vídeos en streaming, algo que ya lleva tiempo tratando de hacerse con los que tienen contenido de suicidio. Desde 2017 existen problemas con suicidios en directo a través de la red, cuyas emisiones a veces tienen cientos de visualizaciones sin que la compañía tenga los reflejos suficientes como para bloquearlos.

Facebook afirmó tras el atentado de Christchurch que la emisión se analizó unos diez minutos después de que ocurriese porque no saltó la alerta de posible suicidio, que lleva unos trámites de supervisión más rápidos. Tras la gran difusión de este atentado, van a cambiar los mecanismos para revisar de forma más acelerada los vídeos que puedan ser peligrosos.

La campaña de limpieza de imagen de Facebook

Personas para controlar lo que las IAs no pueden

El mayor problema al que se enfrentan en Facebook es la cantidad de vídeos en directo que se emiten a cada momento y cómo discernir los actos de violencia real de las emisiones de partidas de videojuegos en vivo, por ejemplo. Estas últimas pueden incluir sonidos e imágenes que complican el trabajo de los algoritmos encargados de discernir los vídeos violentos reales. 

Para controlar los contenidos sin caer en errores hacen falta revisores humanos, algo que supone un esfuerzo de infraestructura y control enorme. Zuckerberg lleva años comentando que una IA podría hacer esa labor, pero hasta ahora no parece que eso esté cerca. No se aplica porque bloquear un gran número de vídeos aptos podría provocar que aún más usuarios optasen por YouTube Live en vez de la plataforma de Facebook. 

En cambio, con el contenido gráfico no han tenido tantos problemas, ni con Rosetta y los memes, ni con las fotografías, a pesar de las polémicas surgidas, como la censura de pezones femeninos. En esos casos si han dejado que se bloqueen automáticamente multitud de imágenes.

¿Cómo evitar vídeos violentos?

Con la emisión del reciente atentado hubo casi dos millones de intentos de compartir el vídeo de nuevo, entre ellos numerosos canales de noticias con extractos. Se hizo muy complicado separar los que informaban de los que hacían apología de los actos terroristas, aunque Facebook confirmó posteriormente que solo una quinta parte de los intentos tuvieron éxito.

YouTube optó por tomar medidas más drásticas y prohibió en algunas zonas la subida del vídeo o el uso de keywords que delatasen esa intención. Pero, al igual que Facebook, se vieron abrumados por la velocidad de respuesta y la cantidad de usuarios que trataron de descargarlo y volver a compartirlo.

Facebook acusado de promover la violencia machista

El uso de las redes sociales por parte de terroristas y la viralidad de sus vídeos no es ninguna novedad para Facebook o YouTube y ya ha provocado cierres temporales de otras redes sociales más pequeñas como Gab. Es complicado conseguir los reflejos suficientes como para bloquear contenidos violentos, aunque seguramente tras los recientes atentados se vean cambios y mayores limitaciones en los intentos de volver a subir estos contenidos.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.