Como Instagram y TikTok crean jóvenes más violentos, intolerantes y machistas

El aumento de comportamientos machistas, xenófobos y homófobos entre jóvenes se atribuye a la influencia de contenido violento y misógino en plataformas como TikTok. A pesar de que las redes dicen moderar estos contenidos, la realidad muestra que los algoritmos promueven interacciones que generan ganancias, priorizando el impacto sobre la moralidad.

Seguro que alguna que otra vez has hablado en el desayuno, o en un tardeo, como últimamente vemos un incremento de comportamientos machistas, xenófobos y homófobos entre los jóvenes. Una corriente que, después de décadas de haber ido descendiendo gracias a las políticas sociales y la apertura de los medios a visualizar otras realidades, desde hace un lustro contemplamos atónitos como la actitud parece ir en ascenso.

Cómo puede ser que estando los jóvenes, aparentemente, expuestos a una cultura social que apremia los comportamientos inclusivos y tolerantes, a la vez que desaconseja las actitudes machistas, haya cada vez más jóvenes misóginos.

La respuesta la encontramos en los contenidos a los que están expuestos los jóvenes.

Mientras que los medios tradicionales y las políticas sociales castigan moralmente los comportamientos machistas, xenófobos y homófobos, los vídeos que se encuentran los chavales en su teléfonos móviles al hacer scroll son exactamente eso: machistas, xenófobos y homófobos.

Y no es una percepción, es una realidad expuesta, entre otros, por Andrew Kaung, que trabajó como analista de seguridad de los usuarios en TikTok desde 2020 hasta 2022. Tanto él como un colega decidieron examinar qué se les estaba recomendando ver a los chicos de 16 años en adelante, examinando los algoritmos de la aplicación. Lo que descubrieron es que se les estaba bombardeando visualmente, sin que ello lo hubieran solicitado, con videos que contenían violencia, pornografía e ideas misóginas.

Por el contrario, a las chicas sí se les recomendaban contenido basado en sus intereses.

TikTok, y el resto de plataformas de difusión de contenidos, se excusan diciendo que los vídeo pasan un primer filtro basado en IA que encuentra los contenidos dañinos y los envía a revisión humana. Lo curioso de esto es que, como explica Andrew Kaung, para que esto ocurra, los vídeos deben pasar previamente un nivel de visualizaciones, es decir, los vídeos deben haber hecho ya daño a suficientes chavales para que salte una alerta. Es como si vemos un incendio en una casa, pero no se llama a los bomberos hasta que no se ha quemado la familia que vivía dentro.

Ese escalofriante umbral de visualizaciones es de 10.000 visualizaciones o más, comenta Kaung. Y hay que recordar que la mayoría de las empresas de redes sociales de difusión dejan que menores de 13 años se puedan registrar.

Sin embargo ByteDance, la empresa china propietaria de TikTok, dice que retira el 99% del contenido que viola de sus reglas, bien por su IA o por moderadores humanos, antes de que alcance 10.000 visualizaciones.

Una investigación, realizada en colaboración entre la UCL, la Universidad de Kent y la Asociación de Líderes de Escuelas y Colegios (ASCL, por sus siglas en inglés) el pasado febrero, encontró un aumento de cuatro veces en el nivel de contenido misógino en la página «Para ti» de las cuentas de TikTok en sólo cinco días en la plataforma, en un estudio de modelado algorítmico.

Por su parte, la BBC decidió hacer una investigación sobre el tema y encontró que varios exempleados de compañías de redes sociales se posicionaron en el mismo lugar que Andrew Kaung al tener experiencias que coincidían con las del analista. También contactaron con usuarios, como el británico Cai que expuso su experiencia, y la BBC la verificó.

Cai expuso que, como usuario, desde los 16 años le fueron apareciendo videos desagradables para él, como alguien siendo atropellado por un automóvil, monólogos de influencers con opiniones misóginas, y otros de peleas violentas. Y no entendía por qué le aparecía ese contenido. Cai intentó usar una de las herramientas de Instagram y otra similar de TikTok para indicar que no estaba interesado en ese contenido, y pese a ello las recomendaciones continuaron.

Hoy día Cai tiene 18 años y dice que le siguen apareciendo contenido recomendado violento y misógino tanto en Instagram como en TikTok. La BBC revisó su cuenta en Instagram y vieron una imagen con dos personas lado a lado, uno de los cuales tenía moretones, y un texto: “Mi lenguaje de amor”. Otra imagen mostraba a una persona siendo atropellada por un camión.

Cai también expone como estos vídeos han condicionado a algunos amigos suyos. Según él, uno de sus amigos se vio atraído por el contenido de un influencer polémico y empezó a adoptar opiniones misóginas.

¿Y qué ganan estas redes con mostrar, e incentivar, el consumo de contenidos violentos? La interacción.

Si las tabacaleras vieron el oro en la nicotina que contenía el tabaco, las empresas que gestionan redes saben que su negocio se fundamenta en la interacción, en busca de la rentabilidad.

No importa si te gusta o no un contenido, al algoritmo le da igual que te alegres al verlo, o te enfades. Lo que le interesa es que interactúes con él. La interacción es lo que le da dinero a la plataforma.

¿Cómo se eligen los contenidos que va a ver el usuario? Se tienen en cuenta los gustos que haya manifestado el usuario al inscribirse (si lo hizo), pero también donde está, qué ven los usuarios de su misma franja de edad y género. De esa manera, los contenidos van a depender de lo que parezca que les gusta a otros. Si un vídeo de un indigente siendo apaleado parece que es visto por muchas personas en tu zona por gente de tu edad, te va a aparecer a ti, te guste o no.

BBC contactó con un exempleado de TikTok que les relató como algunos varones de 16 años podrían acabar viendo contenido violento a los pocos segundos de inscribirse en la plataforma, sólo porque otros usuarios adolescentes similares han estado viendo este tipo de contenido. No se trata de que estos adolescentes le den al «like» de esos contenidos, sólo con que se queden viendo el vídeo (porque les impacte) ya la plataforma cataloga ese contenido como «recomendable«. Lo que importa es que el usuario pase tiempo en la plataforma ya que eso permite que aparezcan anuncios, que es lo que les da de comer.

Los contenidos impactantes son los que, por propia definición, van a atraer más la atención. Ya sean de discursos de odio, actos de violencia o desastres naturales. Este contenido por lo tanto es el que le interesa a las plataformas porque es lo que retiene a los usuarios frente a la pantalla.

Todo ese discurso del dinero que se gastan TikTok, Meta, Google y demás en control de daños (supervisión de contenidos perjudiciales) es como una tabacalera diciendo que le va a quitar a los cigarrillos la adición que provoca la nicotina. Nadie con un mínimo de sentido común puede creerse que un modelo de negocio basado en la interacción va a desprenderse del contenido que permite precisamente que esa interacción exista.

Este artículo está basado en el de la BBC disponible en https://www.bbc.com/mundo/articles/cd9d5nnz3lwo
Imagen de portada de engin akyurt


Descubre más desde Situación Crítica, el Blog

Suscríbete y recibe las últimas entradas en tu correo electrónico.