Logo Computerhoy.com

La IA de Bumble para censurar fotos de desnudos no solicitados con una precisión del 98% ya es software libre

La IA que Bumble integra y ya filtra el 98% de fotos de desnudos no solicitados ya es software libre

Recibir fotos de desnudos, sobre todo si eres mujer, parece que se ha convertido en un deporte de élite. Sin embargo, aplicaciones como Bumble luchan contra ello y ahora ha abierto a todos su sistema de detección de imágenes obscenas a cualquiera que quiera integrarlo.

Seguro que si eres usuario o usuaria de la aplicación Bumble ya lo conoces pero para aquellos que aun no, desde 2019, Bumble ha utilizado el aprendizaje automático y la IA para proteger a sus usuarios de las fotos subidas de tono que no han solicitado. Según estos, afirman tener un 98 % de precisión en la detección.

Denominada Private Detector, la función examina las imágenes enviadas por las personas para determinar si muestran contenido inapropiado. Fue diseñado principalmente para aquellos que son dados a enviar fotografías de su miembro, principalmente a mujeres, lo que desde luego es bastante violento y casi denigrante.

Cuando detecta algo indeseado, ya sean partes del cuerpo o incluso armas, la aplicación difumina la imagen ofensiva, permitiéndote decidir si quieres verla, bloquearla o denunciar a la persona que te la ha enviado.

Pues bien, la novedad es que es aplicación ha anunciado que va a poner a disposición de todos su sistema basado en IA, focalizándose sobre todo en los usuarios de Github, con el objetivo que no solo estos integren las herramienta si no toda app o web que quiera proteger a sus usuarios.

Tinder

"Esperamos que la función sea adoptada por la comunidad tecnológica en general, ya que trabajamos juntos para hacer de Internet un lugar más seguro", dijo la empresa, reconociendo que es sólo uno de los muchos actores en el mercado de las citas en línea.

Desnudos no deseados: una realidad cada vez más frecuente que intentan atajar las grandes compañías

Las insinuaciones sexuales no deseadas son una realidad frecuente para muchas mujeres tanto en Internet como en el mundo real. En una investigación realizada en el Reino Unido en 2020, se reveló que el 76 % de las chicas de entre 12 y 18 años han recibido imágenes de desnudos no solicitadas. 

Por otro lado, al 70 % de las chicas se les ha pedido que envíen desnudos (a menudo a través de "intercambios" de fotos no solicitadas).

Y es que, organismos como la OMS, la Interpol y la NSPCC han advertido de que el aumento del tiempo frente a la pantalla tras el COVID-19 ha hecho que los jóvenes sean más susceptibles a la explotación sexual, la captación y el abuso en línea.

Destacar que el problema se extiende más allá de las aplicaciones de citas, y aplicaciones como Instagram están trabajando en sus propias soluciones. La función "Protección contra desnudos" es un filtro que ya anunciamos que detectará y bloqueará el posible contenido de fotos no deseadas, activando la detección de desnudos de iOS y analizando después los mensajes de tu dispositivo.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.