Entretenimiento

Estudio revela un alarmante dato sobre el algoritmo de TikTok: “Empuja a los jóvenes a autolesionarse”

La investigación encontró que también muestra contenido relacionado a los trastornos alimenticios.

La mujer fue despedida

Las redes sociales merecen un tratamiento especial cuando el consumo es para los jóvenes, adolescentes o incluso niños. Instagram, Twitter, Facebook y TikTok puede presentar contenido inadecuado para menores de edad, incluso con las restricciones previas que tiene cada una de las plataformas.

De todas las mencionadas anteriormente, TikTok es la que se ha ganado la popularidad del sector más joven de la sociedad. Y un reciente estudio realizado por una firma experta en plataformas digitales ha encontrado elementos alarmantes que tienen que ver con el contenido que ofrece la red social de origen chino.

De acuerdo con lo que reseña Computer Hoy, el Center for Countering Digital Hate (CCDH) encuentra que TikTok ofrece “dietas restrictivas peligrosas, contenidos a favor de la autolesión y contenidos que idealizan el suicidio a los usuarios que muestran preferencia por el material”.

Cualquiera que se haya dado un paseo por TikTok le encuentra lógica a lo que dice el estudio. Solo basta con ingresar y ver un par de videos (cuando mucho 4 o 5) de una temática en específico para que el mismo algoritmo se te reconfigure y te comience a mostrar videos relacionados.

Es interesante y útil cuando vemos temas relacionados a Marvel, DC, Los Simpson, videojuegos, chistes, ciencia, tecnología y curiosidades.

Sin embargo, es alarmante cuando una persona con problemas relacionados a la autolesión o afectaciones en los procesos de alimentación, consume constantemente contenido que te impulse a seguir por esa vía.

TikTok sin filtro para edades

Uno de los elementos que más sorprendió a los autores fue que incluso las cuentas de TikTok identificadas como menores de edad no registraron filtros para evitar este tipo de contenido.

Para poder corroborar que esta situación estaba ocurriendo, los expertos crearon cuentas en Estados Unidos, Reino Unido, Canadá y Australia. Las registraron como si fuesen personas de 13 años, edad mínima para tener una cuenta de TikTok.

La idea principal fue crear cuentas que fuesen, como ellos mismos califican “estándar” y “vulnerables”. Sobre estas últimas introdujeron como característica “loseweight”, es decir, personas que quieren bajar peso.

Es así como notaron que el mismo algoritmo comenzó a mostrar contenido sobre la “imagen corporal, trastornos alimentarios y salud mental”.

El equipo dio algunos likes y así fue como la plataforma mostró material relacionado al trastorno alimenticio por los siguientes ocho minutos sin interrupciones. Y después sobre el suicidio por tres minutos.

“Los resultados son la pesadilla de cualquier padre. Se bombardea a los jóvenes con contenidos nocivos y desgarradores que pueden tener un impacto acumulativo significativo en su comprensión del mundo que les rodea y en su salud física y mental”, dijo Imran Ahmed, director ejecutivo de CCDH.

Tags

Lo Último


Te recomendamos