Masacre en Nueva Zelanda: ¿qué estamos viralizando?
Expertos aseguran que la transmisión de los múltiples asesinatos duró 17 minutos porque las personas, antes de reportar el video, prefirieron verlo y hacerlo viral. De otro lado, es imposible crear regulaciones que eviten contenidos ilegales en la red y al mismo tiempo garanticen el pleno derecho a la libertad de expresión sin censura.
Diego Ojeda y María Alejandra Medina C.
Terror causó en las redes sociales la transmisión de un video publicado por un hombre en Nueva Zelanda quien, armado con ametralladoras, ingresó a una mezquita y arrebató la vida de por lo menos 49 personas. El material, que por fragmentos se sigue difundiendo en estas plataformas, se mantuvo al aire durante 17 minutos, antes de que Facebook tomara cartas en el asunto. Para entonces otros usuarios ya lo habían grabado y replicado en otros espacios.
Aquí el contexto completo de este suceso: El repulsivo manifiesto del terrorista
¿Por qué no se detuvo antes la transmisión?
Según declaraciones de la directiva de Facebook en Nueva Zelanda, Mia Garlick, tan pronto la policía de ese territorio informó a la compañía tecnológica lo que estaba ocurriendo, personas detrás de la operación de esta red social borraron el video y eliminaron las cuentas en Facebook e Instagram del tirador. ¿Esa detección no debieron hacerla, de manera oportuna, los algoritmos que emplea Facebook para filtrar contenidos inapropiados?
Según el experto en seguridad informática de ESET, Camilo Gutiérrez, “no hay claridad en cómo maneja exactamente Facebook el control de este tipo de información”. Sin embargo, asegura que una parte importante de esa detección es producto de los reportes que hacen los usuarios; es decir, si el video duró tanto tiempo al aire, posiblemente fue porque la gente prefirió verlo antes de denunciarlo.
Lea también: La masacre de Nueva Zelanda, un test para las plataformas de video en vivo
¿Un problema que se sale de las manos?
Según cifras manejadas por Facebook, la comunidad que integra esta plataforma supera los 2.000 millones de personas situadas en diferentes países, con diversas culturas, que se comunican en decenas de idiomas y, además, publican textos, fotos y videos. Esta cifra da luces sobre la cantidad de contenido que se puede producir en dicha red social, un desbordado flujo de información que por sí solo se sale de las manos de las personas encargadas de revisar.
Plataformas como Youtube, por ejemplo, cuentan con 10.000 revisores humanos que tienen la titánica labor de analizar cerca de 400 horas de video por minuto que suben los usuarios de este espacio. Si esta y otras plataformas están en la capacidad de analizar esa cantidad de información es gracias al uso de robots, dotados con inteligencia artificial, que les ayudan a identificar contenidos inapropiados.
Le puede interesar: ¿YouTube esconde una red de pedofilia en el interior de su plataforma?
Sin embargo, como todo lo creado por humanos, los robots no son perfectos y sus falencias se hacen notar en casos como el de la masacre en Nueva Zelanda.
El experto en seguridad informática de Adalid, Andrés Guzmán, lo explica con mayor detalle: “Hoy en día resulta técnicamente imposible que Facebook pueda controlar todos sus contenidos. Son miles de millones de personas transmitiendo en vivo y allí no existen controles fiables, a menos que sea de alertas tempranas como la aparición de desnudos que pueden determinar un alto porcentaje de piel a la vista”.
Lo anterior lo dice refiriéndose al uso de algoritmos que pueden detectar si en una foto o un video se muestra un desnudo. No obstante, con trasmisiones en vivo como la del tirador de Nueva Zelanda el trabajo se complica, pues no es tan sencillo para el robot detectar si las armas están siendo usadas para perpetrar una masacre o hacen parte del juego de paintball de un grupo de amigos.
De nuevo, la crítica que hace el experto es a que el método más eficiente para bloquear este contenido es el que emplea los reportes de los usuarios para generar alertas a los revisores, hecho que no se dio en este caso: la gente vio el video durante 17 minutos y si no fuera por la denuncia del departamento de policía pudo haber durado más tiempo.
“Si uno se pone a pensar, es el morbo lo que hace que este tipo de contenidos se viralice”, concluye Gutiérrez, en diálogo con El Espectador, e invita a la población a tomar conciencia de qué está haciendo viral en las redes sociales, ya que la responsabilidad, para él, no depende solo de quien genera el contenido sino de las personas que lo ven y luego lo comparten.
¿Qué medidas tomar?
Este tipo de situaciones pueden abrir el debate sobre las medidas que deben tomarse en cuanto a las plataformas, los contenidos e internet misma. Sin embargo, Juan Diego Castañeda, investigador de la Fundación Karisma, organización que vela por los derechos humanos en entornos digitales, afirma que “regular las redes sociales para que sea absolutamente imposible que se suban contenidos ilegales con seguridad afectaría también contenidos legales y protegidos por la libertad de expresión”.
“El problema parece estar en cómo se mueven esos contenidos a través de las sugerencias (News Feed, videos relacionados) o la publicidad, y en las políticas de las redes que determinan qué es admisible dentro de la red, las zonas grises que crean esas políticas y la falta de sensibilidad a los contextos culturales en los que se usan esas redes, tanto para determinar lo que puede estar como lo que se debe eliminar. A las redes las podemos cuestionar, eso sí, por su papel en la consolidación y la propagación de discursos de odio, pero seguramente no serán los únicos actores relevantes en este problema”, añadió.
Terror causó en las redes sociales la transmisión de un video publicado por un hombre en Nueva Zelanda quien, armado con ametralladoras, ingresó a una mezquita y arrebató la vida de por lo menos 49 personas. El material, que por fragmentos se sigue difundiendo en estas plataformas, se mantuvo al aire durante 17 minutos, antes de que Facebook tomara cartas en el asunto. Para entonces otros usuarios ya lo habían grabado y replicado en otros espacios.
Aquí el contexto completo de este suceso: El repulsivo manifiesto del terrorista
¿Por qué no se detuvo antes la transmisión?
Según declaraciones de la directiva de Facebook en Nueva Zelanda, Mia Garlick, tan pronto la policía de ese territorio informó a la compañía tecnológica lo que estaba ocurriendo, personas detrás de la operación de esta red social borraron el video y eliminaron las cuentas en Facebook e Instagram del tirador. ¿Esa detección no debieron hacerla, de manera oportuna, los algoritmos que emplea Facebook para filtrar contenidos inapropiados?
Según el experto en seguridad informática de ESET, Camilo Gutiérrez, “no hay claridad en cómo maneja exactamente Facebook el control de este tipo de información”. Sin embargo, asegura que una parte importante de esa detección es producto de los reportes que hacen los usuarios; es decir, si el video duró tanto tiempo al aire, posiblemente fue porque la gente prefirió verlo antes de denunciarlo.
Lea también: La masacre de Nueva Zelanda, un test para las plataformas de video en vivo
¿Un problema que se sale de las manos?
Según cifras manejadas por Facebook, la comunidad que integra esta plataforma supera los 2.000 millones de personas situadas en diferentes países, con diversas culturas, que se comunican en decenas de idiomas y, además, publican textos, fotos y videos. Esta cifra da luces sobre la cantidad de contenido que se puede producir en dicha red social, un desbordado flujo de información que por sí solo se sale de las manos de las personas encargadas de revisar.
Plataformas como Youtube, por ejemplo, cuentan con 10.000 revisores humanos que tienen la titánica labor de analizar cerca de 400 horas de video por minuto que suben los usuarios de este espacio. Si esta y otras plataformas están en la capacidad de analizar esa cantidad de información es gracias al uso de robots, dotados con inteligencia artificial, que les ayudan a identificar contenidos inapropiados.
Le puede interesar: ¿YouTube esconde una red de pedofilia en el interior de su plataforma?
Sin embargo, como todo lo creado por humanos, los robots no son perfectos y sus falencias se hacen notar en casos como el de la masacre en Nueva Zelanda.
El experto en seguridad informática de Adalid, Andrés Guzmán, lo explica con mayor detalle: “Hoy en día resulta técnicamente imposible que Facebook pueda controlar todos sus contenidos. Son miles de millones de personas transmitiendo en vivo y allí no existen controles fiables, a menos que sea de alertas tempranas como la aparición de desnudos que pueden determinar un alto porcentaje de piel a la vista”.
Lo anterior lo dice refiriéndose al uso de algoritmos que pueden detectar si en una foto o un video se muestra un desnudo. No obstante, con trasmisiones en vivo como la del tirador de Nueva Zelanda el trabajo se complica, pues no es tan sencillo para el robot detectar si las armas están siendo usadas para perpetrar una masacre o hacen parte del juego de paintball de un grupo de amigos.
De nuevo, la crítica que hace el experto es a que el método más eficiente para bloquear este contenido es el que emplea los reportes de los usuarios para generar alertas a los revisores, hecho que no se dio en este caso: la gente vio el video durante 17 minutos y si no fuera por la denuncia del departamento de policía pudo haber durado más tiempo.
“Si uno se pone a pensar, es el morbo lo que hace que este tipo de contenidos se viralice”, concluye Gutiérrez, en diálogo con El Espectador, e invita a la población a tomar conciencia de qué está haciendo viral en las redes sociales, ya que la responsabilidad, para él, no depende solo de quien genera el contenido sino de las personas que lo ven y luego lo comparten.
¿Qué medidas tomar?
Este tipo de situaciones pueden abrir el debate sobre las medidas que deben tomarse en cuanto a las plataformas, los contenidos e internet misma. Sin embargo, Juan Diego Castañeda, investigador de la Fundación Karisma, organización que vela por los derechos humanos en entornos digitales, afirma que “regular las redes sociales para que sea absolutamente imposible que se suban contenidos ilegales con seguridad afectaría también contenidos legales y protegidos por la libertad de expresión”.
“El problema parece estar en cómo se mueven esos contenidos a través de las sugerencias (News Feed, videos relacionados) o la publicidad, y en las políticas de las redes que determinan qué es admisible dentro de la red, las zonas grises que crean esas políticas y la falta de sensibilidad a los contextos culturales en los que se usan esas redes, tanto para determinar lo que puede estar como lo que se debe eliminar. A las redes las podemos cuestionar, eso sí, por su papel en la consolidación y la propagación de discursos de odio, pero seguramente no serán los únicos actores relevantes en este problema”, añadió.