Amnistía Internacional (AI) ha advertido sobre los efectos que provoca la red social TikTok entre los menores de edad. Según han denunciado, el sistema de recomendación de contenidos la plataforma y sus "prácticas invasivas de recolección de datos" representan un "peligro" para los jóvenes y menores.
Esto se debe a que las usan para "amplificar contenidos depresivos y suicidas que podrían empeorar problemas de salud mental preexistentes", tal y como han apuntado en dos informes. En los textos alegan que los jóvenes que ven contenidos relacionados con la salud mental en la página 'Para ti' de TikTok "se ven rápidamente abocados a una espiral de contenidos potencialmente nocivos, incluidos vídeos que idealizan y fomentan el pensamiento depresivo, las autolesiones y el suicidio".
Por ello, Lisa Dittmer, investigadora de AI, ha comentado que "las prácticas de diseño adictivo y manipulador" de esta red social tienen como objetivo "retener" a los usuarios para que "interactúen el mayor tiempo posible". Y alega que "expone a niños, niñas y jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños".
"Los resultados exponen las prácticas de diseño adictivo y manipulador de TikTok, cuyo propósito es retener a las personas usuarias para que interactúen el mayor tiempo posible. También muestran que el sistema algorítmico de recomendación de contenidos de la plataforma, al que se atribuye su rápido auge global, expone a niños, niñas y jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños", confirmó Dittmer.
Los peligros de TikTok
El apartado 'Para ti' de TikTok es una página "altamente personalizada que puede desplazarse sin fin, que muestra contenidos recomendados algorítmicamente, seleccionados para reflejar lo que el sistema deduce que puede interesar a la persona usuaria". Y se ha observado que se produce un "efecto espiral aún más rápido" cuando los investigadores volvieron a ver manualmente los vídeos relacionados con la salud mental sugeridos a las cuentas que imitaban a personas usuarias de 13 años en Kenia, Filipinas y Estados Unidos.
Pasados entre tres y 20 minutos de investigación manual, más de la mitad de los vídeos de la página 'Para ti' estaban relacionados con problemas de salud mental y muchos de los vídeos recomendados en una sola hora idealizaban, normalizaban o animaban al suicidio.
Por ello, concluyen que "TikTok puede exponer a niños, niñas y jóvenes a graves riesgos para la salud si persiste en su actual modelo de negocio, más orientado a mantener los ojos fijos en la plataforma que a respetar el derecho a la salud de los usuarios". Y matizan que el modelo de negocio de la red social es "intrínsecamente abusivo y privilegia la interacción para retener a las personas usuarias en la plataforma, con el fin de recolectar cada vez más datos sobre ellas".
Por su parte, desde TikTok recuerdan que en sus Normas de la comunidad no está permitido "mostrar, promover o proporcionar instrucciones de suicidio y autolesiones, o cualquier desafío, reto, juego o pacto relacionado", así como tampoco "mostrar o promover las bromas sobre el suicidio y las autolesiones" ni "compartir planes de suicidio y autolesiones".
Además, prevé "elaborar un proceso de diligencia debida en materia de derechos humanos" en la que se incluirá la realización "periódica" de evaluaciones de "impacto" en ese ámbito.