Verdadero o Falso

¿Por qué los algoritmos de Tik Tok muestran contenido violento y misógino a los chicos adolescentes?

En los últimos años se está poniendo el foco en el tipo de contenido dañino que los algoritmos de las redes sociales enseñan especificamente a las chicas adolescentes y que, entre otras cosas, está agravando problemas de salud mental. Sin embargo, está pa
El objetivo de los algoritmos es retener a los usuarios el mayor tiempo posible, sin tener en cuenta si el contenido es dañino o no.
El objetivo de los algoritmos es retener a los usuarios el mayor tiempo posible, sin tener en cuenta si el contenido es dañino o no. / R.O.

Andrew Kaung trabajó como analista de seguridad del usuario en Meta y posteriormente en TikTok, de diciembre de 2020 a junio de 2022, y en una entrevista a la BBC en septiembre de 2024, explicó que mientras trabajaba tanto en Meta como en TikTok comprobó que los algoritmos, en su objetivo de mantener la atención de los usuarios la mayor cantidad de tiempo posible, estaban mostrando contenido violento, pornografía y discursos misóginos a los chicos adolescentes.

Las redes sociales utilizan herramientas de Inteligencia Artificial para eliminar la gran mayoría de contenido dañino y también con el objetivo de marcar otros contenidos para que los revisen moderadores humanos, independientemente de la cantidad de vistas que hayan tenido. Pero las herramientas de IA no pueden identificar todo. Andrew Kaung dice que durante el tiempo que trabajó en TikTok, todos los vídeos que no fueron eliminados o marcados para moderadores humanos por IA, o los que no fueron reportados por otros usuarios a moderadores, solo se revisaban de forma manual si alcanzaban 10.000 vistas o más.

Cuando trabajó en Meta entre 2019 y diciembre de 2020, el problema era diferente. Si bien la mayoría de los vídeos fueron eliminados o marcados para moderadores humanos por herramientas de IA, la plataforma dependía de que los usuarios denunciaran los vídeos una vez que ya los habían visto. Planteó sus inquietudes mientras estaba en ambas empresas, pero se encontró con una gran inacción debido a los temores sobre la cantidad de trabajo o el coste que supondría hacerlo. Aunque posteriormente se hicieron algunas mejoras en TikTok y Meta, Andrew decía que siempre va a haber menores en riesgo.

Atención e interacción

Según el regulador británico Ofcom, los algoritmos de las principales empresas de redes sociales han estado recomendando contenido dañino a los menores aunque no lo hicieran intencionadamente. El objetivo de los algoritmos es la atención y la interacción, independientemente de si esta es positiva o negativa. Buscan retener a los usuarios la mayor cantidad de tiempo posible y que los usuarios interactúen lo máximo posible en las plataformas.

Cuando alguien se crea una cuenta en una red social, el primer paso para los usuarios es especificar algunos gustos e intereses. Andrew Kaung dice que parte del contenido que inicialmente ofrecen los algoritmos, por ejemplo a un joven de 16 años, se basa tanto en las preferencias que da como en las preferencias que han mostrado otros usuarios de una edad similar en una ubicación similar.

TikTok dice que los algoritmos no se basan en el género de un usuario a la hora de mostrar contenido, pero los intereses que expresan los adolescentes cuando se registran a menudo tienen el efecto de dividirlos en líneas de género. Según el antiguo empleado de TikTok, algunos chicos de 16 años podrían estar expuestos a contenido violento “de inmediato” porque otros usuarios adolescentes con preferencias similares han expresado interés en este tipo de contenido.

Te puede interesar:

Berm@tu
¿Puedes imaginar cómo sería un día sin Internet? Esto dice la IA

Los intereses que indicaban muchas adolescentes en los perfiles que Andrew examinó (cantantes pop, canciones, maquillaje) llevaban a que no se les recomendara este contenido violento. Los algoritmos utilizan el “aprendizaje de refuerzo”, un método en el que los sistemas de IA aprenden por ensayo y error, y se entrenan para detectar tipos de comportamiento ante distintos vídeos.

Andrew Kaung afirma que los algoritmos están diseñados para maximizar la participación mostrándonos vídeos que esperan que pasemos más tiempo mirando, comentando o marcando como Me gusta, todo ello para que volvamos a por más. El algoritmo que recomienda contenido en la página Para ti de TikTok no siempre diferencia entre contenido dañino y no dañino. Uno de los problemas es que los equipos implicados en el entrenamiento y la codificación de ese algoritmo no siempre conocen la naturaleza exacta de los vídeos que recomiendan. “Ven la cantidad de espectadores, la edad, la tendencia; datos muy abstractos. No están necesariamente expuestos al contenido”.

2025-01-27T11:05:03+01:00
En directo
Onda Vasca En Directo