La ONG investigó durante varios meses los abusos de la red social TikTok y sus consecuencias en la salud mental de los más jóvenes. Los resultados son abrumadores para la plataforma que, según el informe, sigue orientando a los más jóvenes hacia contenidos que banalizan los actos de mutilación o suicidio.
Texto de Baptiste Coulon
Hace dos años, la joven de 18 años a la que llamaremos Emma instaló TikTok en su teléfono por primera vez. Al principio, los vídeos que le proponía la aplicación coincidían con los intereses que había indicado. Pero al cabo de unos minutos, un videoclip musical le llamó la atención. “La canción hablaba de las dificultades que podía encontrar el cantante en temas relacionados con la infelicidad. Como me quedé bastante tiempo viendo el vídeo, me propusieron otros. Empecé a entrar en esa espiral. Y fue de mal en peor”, testimonia.
En el espacio de una semana, y sin haberlo solicitado explícitamente, la adolescente se enfrentó a vídeos cada vez más tóxicos. “Contenidos que banalizan la muerte, que incitan a la autolesión, a todo tipo de comportamientos peligrosos y nocivos”. La salud de Emma se deteriora. Sus visitas al psicólogo no son suficientes. Deprimida, la adolescente es hospitalizada en seis ocasiones.
Autolesiones y suicidio
Su testimonio coincide con las conclusiones del informe de Amnistía Internacional. La ONG creó tres cuentas falsas de adolescentes de 13 años en TikTok y extrajo dos conclusiones: los contenidos tóxicos aparecen muy rápidamente, incluso antes de que el usuario haya expresado ninguna preferencia.
“Cuando creamos las tres cuentas falsas de adolescentes, no dimos ningún like, no compartimos nada, no comentamos nada, no hicimos ninguna búsqueda, simplemente vimos dos veces vídeos relacionados con la salud mental”, informa Katia Roux, responsable de incidencia política de Amnistía Internacional Francia. “Y, sin embargo, eso bastó para que los hilos de esas cuentas se llenaran y casi se inundaran de contenidos de este tipo. Al cabo de 45 minutos, ya teníamos los primeros contenidos relacionados con la autolesión y el suicidio en dos de esas tres cuentas. Así que sí, muy rápidamente”.
Demanda judicial
Según la ONG, la política de moderación de TikTok sigue siendo insuficiente. Insta a la plataforma a replantearse su modelo económico para proteger a sus usuarios. Esta es también la opinión de Stéphanie, cuya hija se suicidó hace cinco años tras ver contenidos tóxicos en TikTok: “Se le podrían haber ofrecido contenidos más agradables o programas deportivos, o decirle: ‘Ve a dar un paseo’. Pero el problema es que, si le ofrecemos eso, dejará de estar en la plataforma. Y, de hecho, el modelo de TikTok consiste en maximizar el tiempo en la red social. Les importa un comino la infancia”.
Junto con otras diez familias, reunidas en un mismo colectivo, Stéphanie ha presentado una demanda ante la justicia francesa contra TikTok por “incitación al suicidio”. La denuncia sigue en fase de investigación. Por su parte, Emma tiene dificultades para recuperarse: “He visto esos vídeos y hay cosas que se me han quedado grabadas en la retina. Tendré esos contenidos durante mucho tiempo…”. Pero ahora denuncia todos los contenidos tóxicos que contaminan sus redes sociales.
Compartir esta nota