Logo Computerhoy.com

El algoritmo de recomendación de TikTok empuja a las autolesiones y a los trastornos alimenticios

TikTok y los dientes perfectos

Un nuevo estudio ha descubierto que el algoritmo de recomendación de TikTok ofrece a los adolescentes contenidos sobre autolesiones y trastornos alimentarios pocos minutos después de que expresen su interés por estos temas. Esto es peligroso a muchos niveles.

El Center for Countering Digital Hate (CCDH) ha descubierto que TikTok, red social de origen chino, promociona contenidos como: dietas restrictivas peligrosas, contenidos a favor de la autolesión y contenidos que idealizan el suicidio a los usuarios que muestran preferencia por el material.

Y lo más peligroso de todo esto es que lo hace incluso si los usuarios están registrados como menores de 18 años. Es decir, recomienda este contenido a menores de edad, el grupo de edad más influenciable y vulnerable de todos los usuarios de la app.

Para su estudio, el grupo de campaña creó cuentas en Estados Unidos, Reino Unido, Canadá y Australia, registradas como si fueran usuarios de 13 años, la edad mínima para acceder al servicio.

Crearon cuentas "estándar" y "vulnerables", estas últimas con el término "loseweight" (bajo peso, en español) en sus nombres de usuario. Según CCDH, esto reflejaba investigaciones que mostraban que los usuarios de las redes sociales que buscan contenidos sobre trastornos alimentarios suelen elegir nombres de usuario con un lenguaje relacionado.

Las cuentas "se detenían brevemente" en vídeos sobre imagen corporal, trastornos alimentarios y salud mental, dando algunos Me Gusta. Esto tuvo lugar durante un periodo inicial de 30 minutos cuando se lanzaron las cuentas, en un intento de captar la eficacia del algoritmo de TikTok que recomienda contenidos a los usuarios.

TikTok cambia sus normas para proteger a los menores de edad

Un algoritmo que asusta: la pesadilla de los padres

En las cuentas "estándar", el contenido sobre el suicidio se mostró durante tres minutos seguidos y el material sobre trastornos alimentarios se mostró durante los siguientes ocho minutos. Algo preocupante para una red social que presume de algoritmo y de millones de usuarios.

"Los resultados son la pesadilla de cualquier padre", afirma Imran Ahmed, director ejecutivo de CCDH. "Se bombardea a los jóvenes con contenidos nocivos y desgarradores que pueden tener un impacto acumulativo significativo en su comprensión del mundo que les rodea y en su salud física y mental".

Según el grupo, la mayoría de los vídeos sobre salud mental que aparecen en sus cuentas estándar a través del feed "Para ti" consisten en usuarios que comparten sus ansiedades e inseguridades.

El contenido sobre imagen corporal era más dañino, según el informe, con cuentas registradas para niños de 13 años a las que se mostraban vídeos que anunciaban bebidas para adelgazar y cirugía estética de abdomen.

Los investigadores descubrieron que los vídeos relacionados con la imagen corporal, la salud mental y los trastornos alimentarios se mostraban a las cuentas "vulnerables" tres veces más que a las cuentas normales. TikTok tiene un grave problema que tiene que solucionar ya.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.