La Voz de Galicia

TikTok sabía que los adolescentes se desnudan en la red social a cambio de dinero

Sociedad

La Voz Madrid / Europa Press

Varios informes internos de la compañía revelan que son conscientes de los efectos negativos, tanto a nivel de salud mental como a nivel social, que causa la red social en los más jóvenes y que las medidas para protegerlos no son eficaces

15 Oct 2024. Actualizado a las 11:02 h.

Un demoledor informe interno de TikTok, publicado por la radio pública americana (NPR) recoge que desde la compañía eran conocedores de todos los peligros y efectos negativos que puede ocasionar el uso de su red social en los adolescentes, tanto a nivel de salud mental como a nivel social, a la hora de llevar a cabo capacidades analíticas, mostrar empatía o participar en conversaciones profundas, según investigaciones internas de la compañía.

Tal y como publica La Vanguardia, dichos documentos recogen que los directivos de TikTok admiten que sabían que menores de quince años se desnudaban en directo a través de la aplicación a cambio de «regalos».

El pasado martes, catorce fiscales generales de Estados Unidos lanzaron una demanda contra TikTok en la que acusaron a la red social propiedad de ByteDance de estar diseñada para generar adicción y engañar a los usuarios, al fingir ser una plataforma segura para los jóvenes.

La demanda presentada por la Oficina del Fiscal General de Kentucky alegó, además, que el personal de TikTok es consciente de que la red social es perjudicial para los jóvenes, y de que sus medidas de seguridad son ineficaces para reducir el tiempo que pasan los usuarios frente a la pantalla o para protegerlos de contenido dañino, según datos recogidos en informes internos de la compañía.

Estos informes internos se entregaron con la demanda de forma confidencial para proceder a su investigación, sin embargo, 30 de estos documentos fueron publicados por la Radio Pública de Kentucky durante un período breve de tiempo, y posteriormente recogidos National Public Radio (NPR), que también tuvo acceso a esta información oculta de la demanda.

Tal y como ha podido conocer NPR, estos documentos también muestran resúmenes de estudios y comunicaciones internas sobre la inutilidad de algunas medidas y herramientas interpuestas para intentar corregir estos peligros.

Consumo compulsivo de TikTok

Uno de los puntos que recoge la investigación interna de TikTok está relacionado con crear la necesidad de utilizar la red social de forma compulsiva y, para ello, dispone de una serie de opciones diseñadas concretamente para mantener a los usuarios jóvenes dentro de la app.

Por ejemplo, una de las afirmaciones recogidas en la demanda señala que se necesitan 260 vídeos para que una persona adquiera el hábito de utilizar TikTok. Teniendo en cuenta que los vídeos de la red social pueden durar como mínimo ocho segundos, y que se reproducen sucesivamente de forma automática, los investigadores han detallado que con menos de 35 minutos «es probable que un usuario promedio se vuelva adicto a la plataforma».

Como resultado, los informes internos detallan que el uso compulsivo de la app «se correlaciona con una serie de efectos negativos para la salud mental», como son la pérdida de habilidades analíticas, la formación de la memoria, el pensamiento contextual, la profundidad conversacional, la empatía y el aumento de la ansiedad.

Igualmente se señala que este uso compulsivo también interfiere en aspectos del sueño, responsabilidades laborales y escolares, y en la conexión de los usuarios con sus seres queridos. De hecho, según las declaraciones de un ejecutivo de TikTok, recogidas en los informes, podría afectar hasta a la capacidad de «mirar a alguien a los ojos».

Para frenar el uso continuo de la app, TikTok introdujo medidas como establecer un tiempo predeterminado de uso de 60 minutos al día. Sin embargo, los documentos disponen de datos en los que se muestra que esta herramienta estaba «mejorando la confianza del público en la plataforma», sin mencionar si realmente sirve para reducir el tiempo de los adolescentes en la red social.

Igualmente, se concluyó que esta herramienta ocasionó una disminución de tiempo de uso de, aproximadamente, 1,5 minutos. Es decir, los jóvenes pasaron de utilizarla alrededor de 108,5 minutos por día a 107 minutos diarios.

Promoción de los filtros de belleza

Por otra parte, los documentos internos a los que accedió NPR también señalan que TikTok es consciente de que impulsa el uso de filtros de belleza, con los que los usuarios mejoran su aspecto de forma artificial, eliminando arrugas, haciendo los labios más grandes o mostrando una figura más delgada.

La compañía es conocedora de los daños que pueden ocasionar los filtros a los menores a nivel físico y mental. Por ello, algunos empleados plantearon la opción de ofrecer «recursos educativos sobre los trastornos de la imagen», así como crear campañas de concienciación sobre los problemas que pueden ocasionar los filtros como, por ejemplo, fomentar la «baja autoestima».

A pesar de esta sugerencias, otro de los informes detalla que el algoritmo de TikTok prioriza a las personas que se consideran más bellas. Para llegar a esta conclusión, se analizó el feed de vídeos principal de la red social y, tal y como lo explicaron en la demanda las autoridades de Kentucky, se identificó que la red social cambió específicamente el algoritmo de TikTok para mostrar «menos sujetos no atractivos» en el feed Para ti, aunque «pudiera afectar negativamente a usuarios jóvenes».

Filtros de información y moderación de contenido

Por otra parte, los documentos internos también señalan que TikTok es conocedor de que dispone de «burbujas de filtro», con las que muestra exclusivamente información y opiniones que se ajustan a los gustos de los usuarios, mediante «algoritmos que personalizan la experiencia en línea de un individuo».

En concreto, la red social ha llevado a cabo experimentos internos con los que ha comprobado la rapidez con la que el algoritmo forma «burbujas de filtro negativas». Basta con emplear 20 minutos en la red social, siguiendo algunas cuentas de contenido doloroso o triste —al que se refieren como painhub y sadnotes—, para que se muestre únicamente contenido negativo en el feed, incluidos vídeos sobre suicidio o trastornos alimentarios.

Además, los informes internos señalan problemas con la moderación de contenido en la app, dado que habitualmente utilizan inteligencia artificial (IA) para marcar el contenido que no cumple con las Normas de la comunidad, sin tener en cuenta el contexto de ciertos contenidos o reglas específicas para ciertas edades.

Por ejemplo, los informes internos detallan que encontraron vídeos de autolesiones que tuvieron más de 75.000 visualizaciones antes de que TikTok los identificara y eliminara.

Además, cuentan con diferentes tasas de «filtración» de contenido que, aunque va en contra de sus pautas, no se elimina. Es decir, incluyen una tasa de 35,71 % de «normalización de la pedofilia», un 50 % de «glorificación de la agresión sexual a menores» y un 100 % de «fetichización de menores», según los documentos filtrados.

En cuanto a las cuentas identificadas como sospechosas de pertenecer a menores de 13 años, los moderadores también disponen de normativas que señalan que no deben eliminar dichos perfiles, a no ser que los propios usuarios señalen que son menores.

Tergiversar el compromiso de TikTok

Con todo ello, el portavoz de TikTok, Alex Haurek, ha indicado en declaraciones al medio citado que la denuncia «selecciona citas engañosas» y saca de contexto documentos obsoletos para «tergiversar» el compromiso de la compañía con respecto a la seguridad de la comunidad.

Además de condenar la publicación de información que está «bajo secreto de sumario», Haurek también dijo que desde TikTok cuentan con «sólidas medidas de seguridad», como la «eliminación proactiva de usuarios de menores de edad sospechosos». Asimismo, ha recordado funciones como los límites de tiempo de pantalla, el emparejamiento familiar y la privacidad predeterminada para menores de 16 años.


Comentar