¿Por qué el contenido peligroso está en auge en las redes sociales de Kenia?

Suspensión

Nairobi: el tirador se acerca por detrás y apunta con un arma a la cabeza de su víctima. Presionando el gatillo y “pop”, el cuerpo sin vida se desliza hacia adelante. El tiro se corta a la ejecución de otro y otro. El video fue publicado en Facebook, para un gran grupo de simpatizantes de Al-Shabab y del Estado Islámico, donde las diferentes versiones fueron vistas miles de veces antes de ser eliminadas.

Con Facebook y su rival TikTok creciendo a una velocidad vertiginosa en Kenia y en toda África, los investigadores dicen que las empresas tecnológicas no están logrando seguir el ritmo de la difusión de contenido terrorista, discursos de odio e información errónea, aprovechando los marcos regulatorios deficientes para evitar una supervisión más estricta.

“Es una elección deliberada para maximizar el empleo y extraer ganancias, porque ven a las sociedades en el Sur Global principalmente como mercados, no como sociedades”, dijo Nangala Nyabula, investigador social y tecnológico de Kenia.

Aproximadamente 1 de cada 5 kenianos usa Facebook, que el año pasado la empresa matriz rebautizó como Meta, y TikTok se ha convertido en una de las aplicaciones más descargadas del país. La proliferación de contenido violento e incendiario en las plataformas plantea riesgos reales en este país del este de África, mientras se prepara para unas elecciones presidenciales muy disputadas el próximo mes y lidia con la amenaza de terrorismo que representa el resurgimiento del movimiento al-Shabab.

“Nuestro enfoque de la moderación de contenido en África no es diferente al de cualquier otro lugar del mundo”, escribió Kojo Boake, director de políticas públicas para África, Medio Oriente y Turquía en Meta, en un correo electrónico a The Washington Post. “Priorizamos la seguridad en nuestras plataformas y hemos tomado medidas rigurosas para combatir la información errónea y el contenido dañino”.

Fortune Mgwili-Sibanda, directora de Relaciones Gubernamentales y Políticas Públicas de TikTok en África subsahariana, también respondió a The Post por correo electrónico y escribió: “Tenemos miles de personas trabajando con seguridad en todo el mundo, y continuamos expandiendo esto”. funcionar en nuestros mercados africanos, en línea con el crecimiento continuo de nuestra comunidad TikTok en el continente”.

Las empresas utilizan una estrategia de edición de contenido doble: los algoritmos de inteligencia artificial (IA) proporcionan la primera línea de defensa. Pero Meta reconoció que es difícil enseñar a la IA a reconocer el discurso de odio en varios idiomas y contextos, y los informes indican que las publicaciones en idiomas distintos del inglés a menudo se saltan las lagunas.

En junio, investigadores del Instituto de Diálogo Estratégico de Londres publicaron un informe que describe cómo al-Shabab y el Estado Islámico están utilizando Facebook para difundir contenido extremista, como el video de la ejecución. La investigación de dos años descubrió 30 páginas de propaganda pública de Al-Shabab y el Estado Islámico con casi 40.000 seguidores. Los grupos publicaron videos que mostraban horribles asesinatos, atentados suicidas, ataques contra el entrenamiento militar e islamista militante de Kenia. Parte del contenido ha vivido en la plataforma durante más de seis años.

Mostafa Ayyad, uno de los autores del informe, dijo que la dependencia de la IA era un problema fundamental, porque los malos aprendieron a manipular el sistema. Ayyad explicó que si los terroristas supieran que la IA estaba buscando la palabra yihad, podrían “dividir la yihad por puntos entre letras, por lo que el sistema de IA ahora no la lee correctamente”.

Ayad dijo que la mayoría de las cuentas reportadas en el informe ahora se han eliminado, pero desde entonces ha surgido contenido similar, como un videoclip publicado en julio que muestra a Fouad Mohamed Khalaf, un líder juvenil buscado por el gobierno de EE. UU. Obtuvo 141.000 visitas y 1.800 publicaciones antes de que se eliminara después de 10 días.

El informe dice que los grupos terroristas también pueden eludir la moderación humana, que es la segunda línea de defensa para las empresas de redes sociales, al explotar las brechas de conocimientos lingüísticos y culturales. Los idiomas nacionales de Kenia son el inglés y el swahili, pero los kenianos hablan docenas de otros idiomas, dialectos tribales y la jerga local conocida como sheng..

Meta dijo que tiene un equipo multidisciplinario de 350 personas, incluidos hablantes de árabe, somalí y swahili, que monitorean y se ocupan del contenido terrorista. Entre enero y marzo, la compañía afirma que eliminó 15 millones de piezas de contenido que violaban sus políticas de terrorismo, pero no dijo cuánto contenido terrorista cree que todavía existe en la plataforma.

En enero de 2019, Al-Shabaab atacó el complejo DusitD2 en Nairobi y mató a 21 personas. Una investigación del gobierno reveló más tarde que planearon el ataque utilizando una cuenta de Facebook que había permanecido sin ser detectada durante seis meses, según medios locales.

Durante las elecciones de Kenia en 2017, los periodistas documentaron cómo Facebook luchó para frenar la propagación del discurso de odio con carga racial, un problema que, según los investigadores, la empresa sigue sin abordar. Lo que agrava sus preocupaciones ahora es la creciente popularidad de TikTok, que también se utiliza para avivar las tensiones antes de las elecciones presidenciales de agosto.

En junio, la Fundación Mozilla publicó un informe que detalla cómo la desinformación sobre las elecciones en Kenia se ha arraigado en TikTok. El informe examinó más de 130 videos de 33 cuentas que se vieron más de 4 millones de veces y encontró discursos de odio con base racial, así como contenido manipulado y falso que viola las políticas de TikTok.

Uno de los videos imitaba un anuncio de detergentes en el que el narrador les decía a los espectadores que el “limpiador” podría eliminar al “Madado”, incluidos los miembros de las tribus Kamba, Kikuyu, Luhya y Lu. Traducido literalmente, ‘Madado’ es una palabra inofensiva que significa mancha o mancha, pero también puede ser un insulto racial codificado y una apología de la violencia. El video incluía imágenes duras de enfrentamientos postelectorales de años anteriores.

Después de que se publicó el informe, TikTok eliminó el video y marcó el término “madoadoa”, pero el episodio mostró cómo los matices del lenguaje pueden escapar a los moderadores humanos. Una denunciante de TikTok le dijo a la autora del informe, Odanga Madung, que le pidieron que mirara videos en idiomas que no habla y determinara, mirando solo las fotos, si violaban sus pautas.

TikTok no respondió directamente a este reclamo cuando The Post le pidió un comentario, pero la compañía emitió una declaración reciente sobre los esfuerzos para abordar el contenido electoral problemático. TikTok dijo que modera el contenido en más de 60 idiomas, incluido el swahili, pero se negó a dar detalles adicionales sobre los moderadores en Kenia o cuántos idiomas monitorea. También lanzó un centro de operaciones para Kenia con expertos que detectan y eliminan publicaciones que violan sus políticas. Y en julio, publicó una guía de usuario que contiene información sobre las elecciones y los medios de comunicación.

“Tenemos un equipo dedicado que trabaja para proteger TikTok durante las elecciones de Kenia”, escribió Mgweli Sibanda. “Bloqueamos y eliminamos la información errónea relacionada con las elecciones, la promoción de la violencia y otras violaciones de nuestras políticas”.

Pero los investigadores siguen preocupados de que el discurso violento en línea pueda conducir a la violencia real. “Uno verá que estas mentiras realmente tienen consecuencias muy trágicas para las personas que asisten a las manifestaciones”, dijo Irungo Hutton, director de Amnistía Internacional Kenia.

Los investigadores dicen que TikTok y Meta podrían desviarse de los estándares de moderación de contenido más bajos de Kenia, en parte porque la ley de Kenia no responsabiliza directamente a las empresas de redes sociales por el contenido dañino en sus plataformas. Por el contrario, la ley de Facebook en Alemania impone una multa de hasta $ 50 millones a las empresas si no eliminan el contenido “obviamente ilegal” dentro de las 24 horas posteriores a la presentación de una queja por parte del usuario.

“Esta es un área bastante gris”, dijo Mugambi Liputa, un abogado de Kenia. “Cuando hablas de incitación al odio, no hay ninguna ley en Kenia que diga que estos sitios deben imponer la moderación del contenido”.

Los expertos advierten que si Meta y TikTok no se censuran a sí mismos, los gobiernos africanos lo harán en su nombre, posiblemente de manera antidemocrática y peligrosa. “Si las plataformas no se unen, se convierten en excusas convenientes para que los déspotas las repriman en todo el continente” y “una excusa conveniente para que desaparezcan”, dijo Madung. “Y todos necesitamos estas plataformas para sobrevivir. Las necesitamos para prosperar”.

Leave a Reply

Your email address will not be published. Required fields are marked *