Los nazis y los voluntarios usan Gotye y MGMT para evadir los bots de TikTok, dice un informe

El estudio independiente más grande de odio en TikTok encontró que los videos anti-asiáticos y pro-nazis obtienen millones de visitas, a menudo usando canciones pop para evadir a los moderadores automáticos de la plataforma.

Un informe del Instituto para el Diálogo Estratégico (ISD), un centro de investigación con sede en Londres para combatir el extremismo, dijo que la plataforma social líder era “popular entre aquellos que pretendían utilizar espacios en línea para producir, difundir y promover el odio y el extremismo”.

El informe Hatescape, resultado de tres meses de investigación, encontró que parte de su contenido racista o terrorista estaba motivado o relacionado con australianos.

Uno de los videos que ha obtenido más de dos millones de visitas incluye a un hombre caucásico comiendo un murciélago en una referencia ofensiva a los estereotipos sobre los chinos.

Otros videos que muestran a australianos que aparecen como un hombre de negro o como un oficial de policía durante una “recreación” del asesinato de George Floyd, cuya muerte provocó protestas mundiales el año pasado con el título “Black Lives Matter”.

“Este tipo de cosas se repiten en todos los ámbitos”, dijo el autor del estudio, Kieran O’Connor.

“Los comentarios a continuación enfatizan los temas que cubre y cómo generan situaciones desagradables”.

Si bien no es de extrañar que los grupos marginales usen plataformas de redes sociales para publicar material de odio, los expertos dicen que TikTok ha generado formas creativas de distribuir contenido y evitar eliminaciones automáticas.

Estas peculiaridades incluían algo tan simple como cambiar la banda sonora, pero aún no está claro qué funciona exactamente.

“Se sabe que TikTok es una plataforma muy difícil de estudiar, por una razón es un género nuevo y no hay mucha metodología”, dijo Ariel Bogle, analista del Centro Internacional de Política Electrónica (ICPC).

“También está impulsado por un algoritmo que se ha mantenido muy misterioso”.

O’Connor dijo que en su muestra de 1.030 videos, recopilados a partir de una biblioteca de hashtags y frases comunes publicadas por grupos marginales, había contenido terrible sobre todo tipo de grupos protegidos.

A menudo usaba videos anti-COVID-19 asiáticos u otros hashtags no relacionados, lo que, según O’Connor, hace que el contenido sea más visible y puede mostrárselo a personas que de otra manera no lo verían.

Casi la mitad de los videos de la muestra eran material pro-nazi, y algunos mostraban imágenes de la transmisión en vivo del tirador de Christchurch o personas que leían directamente su declaración.

Este contenido es ilegal en muchas jurisdicciones y algunas publicaciones pueden contener un enlace que dirige a los espectadores a un canal de mensajes cifrados que contiene más material extremista.

También se ha descubierto que TikTok atrae a otros tipos marginales, como los grupos anti-transgénero o la ideología de los hombres que siguen su propio camino, una rama del movimiento anti-mujeres incel.

O’Connoer dijo que más del 80 por ciento de los videos aún estaban en vivo al final del estudio, pero ABC sabe que la plataforma los eliminó todos después de que fueron marcados por ISD.

Si bien TikTok dijo que elimina la gran mayoría del contenido que viola su política en 24 horas, muchas de las funciones utilizadas para evadir a sus moderadores están integradas en la plataforma.

El ícono de la aplicación TikTok aparece en la pantalla.
O’Connor dijo que la plataforma ha aprendido de los errores de Facebook y TikTok, pero se necesita más transparencia.(

AP

)

Tanto la Sra. Bogle como el ISD señalaron formas sencillas en las que los usuarios evitan la moderación, como cambiar un carácter en una frase prohibida, el nombre de una cuenta o un hashtag mal escrito.

Otras tecnologías hicieron uso de la función “Stitch” o “Duet” de la aplicación que combinaba material prohibido y nazi con otros videos, apareciendo lo suficiente en algunos casos para evitar la censura.

“Siempre hay algún tipo de juego del gato y el ratón, con moderación de TikTok”, dijo Bogle.

“También he visto personajes a los que TikTok eliminó sus cuentas, pero se quedaron en la plataforma porque otras personas simplemente los volvieron a subir, posiblemente con una banda sonora diferente”.

TikTok también puede silenciar videos que contienen audio que viola las pautas de la comunidad, pero una solución efectiva es usar canciones de los catálogos de la aplicación.

La canción favorita de los grupos marginales, según O’Connor, era Little Dark Age de MGMT.

También figuraba de manera prominente en la muestra de ISD la persona de Gotye que conocía y Kate Bush subió corriendo esa colina.

Ninguna de estas canciones contiene connotaciones extremas.

O’Connor dijo que, si bien TikTok ha aprendido de las trampas y los errores que han cometido otras empresas de redes sociales, y la mayoría de los videos reportados tenían poca participación, dijo que la compañía necesita más transparencia sobre cómo modifica su contenido.

“Hay una brecha en la aplicación del enfoque de TikTok sobre el odio y el extremismo … Este contenido ha sido eliminado, pero de manera inconsistente”, dijo.

Una portavoz de TikTok dijo que las redes sociales valoran “muchas” investigaciones producidas por ISD y otras organizaciones.

“TikTok prohíbe categóricamente el extremismo violento y el comportamiento de odio, y nuestro equipo dedicado eliminará cualquier contenido que viole nuestras políticas y socave la experiencia creativa y alegre que la gente espera en nuestra plataforma”, dijo en un comunicado.

“Valoramos enormemente nuestra colaboración con ISD y otros cuya investigación crítica sobre los desafíos de toda la industria ayuda a avanzar en la forma en que implementamos nuestras políticas para mantener nuestra plataforma segura y acogedora”.

READ  El presidente del Comité Olímpico Australiano, John Coates, dijo que la oposición a los Juegos Olímpicos de Tokio disminuirá con la introducción de la vacuna COVID.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *