Buscar
Geopolítica

Lectura 6:00 min

Terrorismo viral, el día en que YouTube fue rebasado

Un alto ejecutivo de la empresa que pertenece a Google narró la noche que vivió tras el atentado en el que murieron 50 personas.

main image

Foto: Reuters

San Francisco. Neal Mohan, jefe de Producto de YouTube, tuvo la certeza de que la empresa sería superada en el momento en que observó el video del atentado terrorista en Nueva Zelanda el pasado viernes.

Mohan reunió en el cuarto de guerra a un grupo de altos ejecutivos reconocidos como comandantes de crisis.

El equipo trabajó durante la noche tratando de identificar y eliminar decenas de miles de videos, muchas versiones reeditadas del original que mostraba los horribles asesinatos.

Conforme el grupo detectaba un video y lo bajaba del ciberespacio, aparecían otros, comentó Mohan en entrevista con The Washington Post.

A medida que sus esfuerzos no eran suficientes, el equipo tomó medidas sin precedentes, incluida la desactivación temporal de varias funciones de búsqueda y la suspensión de las funciones de revisión humana, todo para acelerar la eliminación de videos.

Muchos de los nuevos clips se modificaron de tal manera que muchos usuarios burlaron los sistemas de detección que tiene la compañía.

“Ésta fue una tragedia que fue diseñada casi con el propósito de volverse viral”, expuso Mohan. “Hemos progresado, pero eso no significa que no tengamos mucho trabajo por delante”, añadió. “Con este caso, en el que un video se viraliza de manera exponencial, ha quedado claro que queda mucho por hacer”.

Los atentados en un concierto de Las Vegas en octubre del 2017 y en una sinagoga de Pittsburgh en octubre pasado no fueron transmitidos en tiempo real a pesar de que sí fueron grabados. En Nueva Zelanda, el tirador llevaba una cámara montada en el cuerpo mientras disparaba en contra de decenas de fieles.

Lo que es cierto es que la plataforma de videos ha sido utilizada por grupos que desean enviar un mensaje al mundo sobre sus obsesiones. A pesar de ser una de las joyas de la corona de los negocios de servicios en línea de Google, durante muchas horas, YouTube no pudo detener la avalancha de usuarios que subieron y volvieron a subir las imágenes que muestran el asesinato masivo de musulmanes.

“Cada vez que ocurre una tragedia como esta, aprendemos algo nuevo. Y en este caso lo novedoso fue el volumen de videos sin precedentes”, afirmó Mohan. “Francamente, me hubiera gustado mucho tener una idea cercana de lo que podía pasar”.

La rápida difusión del video del ataque terrorista, así como un manifiesto de 74 páginas, aparentemente escrito por el tirador, donde criticaba a los musulmanes e inmigrantes, parecían de un plan astuto cuyo objetivo era llegar a la mayor cantidad posible de personas a través de Internet.

El tirador también tuvo el tiempo para alertar a las comunidades en línea, en particular a estrellas de YouTube, uno de ellos PewDiePie. (PewDiePie, cuyo nombre real es Felix Arvid Ulf Kjellberg, rechazó de inmediato la invitación del terrorista).

Animación tipo videojuego

Muchos de los usuarios realizaron modificaciones al video antes de reenviarlo: marcas de agua, colocar logotipos, alterar el tamaño de los clips para sortear la inspección de YouTube. Algunos incluso convirtieron a las personas en animaciones, como si se tratara de un videojuego. Durante muchas horas, el video del ataque se pudo encontrar fácilmente usando palabras básicas tan simples como “Nueva Zelanda”.

YouTube declinó decir cuántos videos eliminó. Algo que sí reveló Facebook. La empresa de Mark Zuckerberg eliminó 1.5 millones de videos durante las 24 horas posteriores al ataque. Reddit y Twitter también lucharon para evitar la difusión del video.

Durante los últimos años, YouTube ha estado bajo el fuego por difundir la desinformación rusa, el extremismo violento, las teorías de conspiración de odio y el contenido infantil inadecuado. En el último mes, se han producido escándalos sobre los pedófilos que utilizan el sistema de comentarios de YouTube para resaltar imágenes sexualizadas de niños.

También fue polémico un video de un pediatra de Florida en donde da consejos sobre cómo cometer suicidio.

Inteligencia artificial ingenua

Peter Sundays, un profesor de ciencias de la computación en la Universidad de Washington, aseguró que la inteligencia artificial es mucho menos sofisticada de lo que mucha gente cree, y las compañías de Silicon Valley a menudo describen sus sistemas como más poderosos de lo que realmente son, sobre todo cuando compiten por negocios. De hecho, incluso los sistemas de inteligencia artificial más avanzados aún son engañados de manera que un humano podría detectar fácilmente.

“En cierto modo, (las empresas tecnológicas) están atrapadas cuando algo como esto sucede, porque necesitan explicar que su inteligencia artificial es realmente falible”, dijo Sundays.

Otros expertos creen que las redes sociales no pueden eliminar completamente la continua propagación de contenido tipo criminal cuando la característica principal de sus productos permite a las personas publicar contenido sin una revisión previa.

Incluso si las compañías han contratado a decenas de miles de personas como alternativa a la inteligencia artificial, las decisiones que toman estos humanos son propensas al error debido a la subjetividad. Al mismo tiempo, la inteligencia artificial nunca podrá realizar análisis interno para determinar si una imagen es publicable o no. Simplemente responde en función de cómo haya sido programada.

El exingeniero de YouTube Guillaume Chaslot, quien dejó la compañía en el 2013 y ahora dirige el grupo de vigilancia AlgoTransparency, sostuvo que la compañía no ha hecho los arreglos necesarios en sus sistemas para hacer que su plataforma sea segura, y que probablemente no lo hará sin no existe más presión pública.

“A menos de que los usuarios dejen de usar YouTube, (los ejecutivos) no tienen un incentivo real para hacer grandes cambios”, opinó.

Google reveló que ha contratado a 10,000 personas para que desarrollen el rebajo de moderador. Son los encargados de revisar los contenidos de videos.

En circunstancias normales, un software marca el contenido problemático, es decir, lo cataloga y lo envía a los moderadores humanos. Los revisores miran el video y toman una decisión.

En la noche del tiroteo, a Mohan le preocupaba que la compañía no se estuviera moviendo lo suficientemente rápido para resolver los problemas. La noche del tiroteo en Nueva Zelanda Mohan tomó la inusual decisión de suspender el uso de moderadores humanos.

A mediados del viernes, Mohan todavía no estaba satisfecho con los resultados. Tomó otra decisión: deshabilitar la herramienta de la compañía que permite a las personas buscar subidas recientes.

La empresa reconoce que no es una solución definitiva.

El caso no fue fácil para nadie. Pero todo indica que de la experiencia se aprende.

tracking reference image

Últimas noticias

Noticias Recomendadas

Suscríbete