Los “bots” detrás de la cruzada digital contra la JEP (II)
Se realizaron cerca de 600 pruebas para identificar posibles bots detrás del posicionamiento de siete tendencias en Twitter en contra de la Jurisdicción Especial para la Paz (JEP). Con esta muestra se comprobó que el 69 % de estos usuarios son humanos y el 31 % probablemente sean cuentas automatizadas o semiautomatizadas para impulsar desinformación en contra de este tribunal de paz.
Valerie Cortés Villalba
Tras el análisis de las cuentas más activas en Twitter, que posicionaron siete hashtags en contra de la Jurisdicción Especial para la Paz (JEP), en los últimos nueve meses, se identificó que, tras la red de usuarios y comunidades en línea que participaron activamente, también hubo presencia de cuentas automatizadas (bots). ¿Qué implica esto? ¿Qué tan significativos son? En esta segunda entrega se lo contamos.
Primero, definamos qué es un bot o una cuenta automatizada en Twitter. En pocas palabras, según Darius Kazemi, investigador y artista digital, son computadoras controladas por medio de algoritmos (diseñados por humanos) que emulan la actividad de personas, pero que operan, producen y comparten contenido a un ritmo más acelerado.
(Lea la primera entrega de esta investigación: Engaños y bots, la cruzada digital en contra de la JEP (I))
Este es un debate amplio y de cuidado, pues no todos los bots son maliciosos y no todo lo que creemos que son bots lo son. Esta distinción es importante, pues algunas cuentas institucionales, empresariales o medios de comunicación utilizan bots para programar sus contenidos. Sin embargo, lo que han advertido investigadores como Philip Howard, desde 2006, es que “estas cuentas automatizadas han sido utilizadas para divulgar desinformación de forma masiva a través de las redes sociales con un único fin político”.
Esto se ha demostrado desde hace casi una década, gracias a investigaciones como las de Jacob Ratkiewicz y otros docentes de la Universidad de Indiana en 2011, quienes lograron comprobar el uso de bots en Twitter en medio de las elecciones de mitad de periodo en Estados Unidos en 2010. Las cuentas identificadas como bots maliciosos se dedicaron a apoyar a unos candidatos y a difamar a otros, “inyectando, además, miles de tuits que apuntaban a sitios web de desinformación y noticias falsas”, concluye el estudio.
En el caso de esta investigación, recordemos, desde el 29 de agosto de 2019 hasta el 30 de junio de 2020, un total de 8.927 usuarios utilizaron alguna de las siete tendencias identificadas en contra de la JEP (#ARomperLaJEP, #LaJEPDebeSerEliminada, #NoMásJEP, #ImpuniJEP, #RompamosLaJEP, #JEPTribunalDeTerroristas y #JEPEsImpunidad).
Para tener una muestra representativa de estos usuarios se seleccionaron las 300 cuentas más activas durante el período de análisis. Es decir, aquellas que generaron una mayor cantidad de tuits originales o retuits.
A cada uno de estos 300 usuarios (ver los primeros 20 en el gráfico) se les realizaron dos pruebas para comprobar la probabilidad de que fueran cuentas automatizadas o semiautomatizadas (cyborgs), estas últimas son cuentas administradas por humanos y, en ocasiones, dirigidas por un bot.
Las herramientas utilizadas para realizar las pruebas fueron: Botometer, desarrollada por la Universidad de Indiana y que extrae cerca de 1.200 características de cada cuenta (entre ellas, patrones de temporalidad, ritmo de actividad y la estructura de la red de amigos) para determinar la probabilidad de que una cuenta sea un bot. También se utilizó Pegabot, desarrollada por el Instituto de Tecnología y Equidad; el Instituto de Tecnología y Sociedad de Rio, y Enjambre Digital, una organización en defensa de los derechos digitales.
Ambas herramientas utilizan un porcentaje que mide a manera de “termometro” la probabilidad de que una cuenta sea bot (el verde indica que es un humano y la categoría de color rojo, muestra un comportamiento sospechoso).
Los resultados determinaron que el 69 % de este conjunto de usuarios son humanos y el 31 % probablemente sean cuentas automatizadas o semiautomatizadas. ¿Qué implica esto? En términos prácticos, evidencia que las tendencias en contra de la JEP no fueron 100 % espontáneas, es decir, además de usuarios inconformes o críticos contra este tribunal de paz, también hubo presencia de bots, que impulsaron estas etiquetas.
De los bots identificados se comprobó que el 98 % de su contenido son retuits, es decir, son retuiteadores o amplificadores profesionales, tanto de otros tuits como de enlaces a páginas web e incluso a publicaciones en plataformas como Facebook.
Al preguntarle a Jaime Arizabaleta y Ana María Abello (tuiteros uribistas y quienes impulsaron tres de los siete hashtags en contra de la JEP) si tenían conocimiento de que, detrás de estas etiquetas, también habían posibles cuentas automatizadas o semiautomatizadas, ambos contestaron que no sabían y que en sus publicaciones “hay excesiva interacción humana”, aseguraron.
El porcentaje de bots identificados parece ser poco representativo, pero posiblemente no lo es. En una investigación adelantada por Emilio Ferrara y otros profesores de la Universidad del Sur de California, se determinó que en promedio, los bots en Twitter representaban entre el 9 y 15 % del total de los usuarios. Sin embargo, los académicos proponen, que para centrarse en el problema de la desinformación hace falta ver más allá de esta representatividad numérica de los bots y “reflexionar sobre el refinamiento de otras estrategias para presentar información manufacturada”.
Durante los nueve meses de análisis se logró identificar que entre los 8.927 usuarios compartieron tres tipos de contenido: videos o montajes propios, titulares de medios de comunicación tradicionales y portales web, algunos de ellos de opinión y otros de desinformación.
(Le recomendamos: Ley de noticias falsas en Brasil: las cosas malas de una idea terrible)
Entre este último grupo está el Parche del Capuchino (mencionado en la entrega anterior), Periódico El Debate, Linterna Azul (que mezcla opinión con noticias de otros medios) y Oiga Noticias.
Este último es un portal de “noticias falsas” y también indexa publicaciones de otras páginas web. Una de sus entradas más populares en los datos titulaba “JEP respaldó ataque del ELN contra escuela militar”. De nuevo, esta información engañosa que responde a una tergiversación de las decisiones de la JEP. Y como se vio en la primera entrega, esta misma narrativa se traslada a los tuiteros y políticos del Centro Democrático, y, finalmente, es replicada a través de una plataforma con millones de usuarios.
La JEP no desconoce que existan campañas de desinformación en redes en contra de la entidad y sus funcionarios: “Hay mensajes repetitivos y cuentas que están dedicadas a sistemáticamente tratar de socavar la credibilidad de la entidad”, aseguró Hernando Salazar, subdirector de comunicaciones de la JEP. Pero aclaró, “sería irresponsable asegurar que solo hay máquinas moviendo estos hashtags en contra de la JEP, también hay gente que sigue creyendo en los engaños, y eso es lo más preocupante”.
Justamente, es este punto donde se cruzan los resultados de esta investigación, con el contexto político del país y las reflexiones desde la academia. A pesar de que la participación de cuentas automatizadas o semiautomatizadas no es despreciable en comparación con otros estudios, lo que se puede comprobar es que el uso de bots es solo un síntoma del problema de la desinformación. En palabras de Ferrara, “si los bots son los títeres, se necesitan esfuerzos adicionales para encontrar a sus titiriteros”.
Frente a este tema, Andrés Lombana, investigador del Berkman Klein Center de la Universidad de Harvard y docente de la Universidad Javeriana, asegura que “sin duda, hay presencia de bots, pero es difícil decir que es una operación exclusivamente de máquinas. Incluso, hay limitaciones en la misma detención de estas cuentas pues se está quedando atrás de la versión más refinada de estos”.
Asimismo, Lombana añadió que “lo que resulta incluso más difícil de detectar son “trolls” o cuentas de actores malignos, porque son humanos que muchas veces están utilizando herramientas de bots pero que están mezclados”.
¿Afecta esto el debate democrático? Según el académico, desde los extremos —tanto de la derecha como de la izquierda— sí conlleva implicaciones serias.
“Estas estrategias de propaganda, llamaría yo, no promueven un diálogo entre ciudadanos informados. Si algún sector busca eliminar o aplastar los argumentos del otro, afecta la deliberación sobre un tema tan complejo como la justicia transicional. No se puede hacer paz en un lugar donde está dominado por discursos polarizantes y que no dejan espacio para el debate”, aseguró.
*¿Tiene alguna duda sobre esta investigación? Escríbanos a vcortesv@elespectador. com
Tras el análisis de las cuentas más activas en Twitter, que posicionaron siete hashtags en contra de la Jurisdicción Especial para la Paz (JEP), en los últimos nueve meses, se identificó que, tras la red de usuarios y comunidades en línea que participaron activamente, también hubo presencia de cuentas automatizadas (bots). ¿Qué implica esto? ¿Qué tan significativos son? En esta segunda entrega se lo contamos.
Primero, definamos qué es un bot o una cuenta automatizada en Twitter. En pocas palabras, según Darius Kazemi, investigador y artista digital, son computadoras controladas por medio de algoritmos (diseñados por humanos) que emulan la actividad de personas, pero que operan, producen y comparten contenido a un ritmo más acelerado.
(Lea la primera entrega de esta investigación: Engaños y bots, la cruzada digital en contra de la JEP (I))
Este es un debate amplio y de cuidado, pues no todos los bots son maliciosos y no todo lo que creemos que son bots lo son. Esta distinción es importante, pues algunas cuentas institucionales, empresariales o medios de comunicación utilizan bots para programar sus contenidos. Sin embargo, lo que han advertido investigadores como Philip Howard, desde 2006, es que “estas cuentas automatizadas han sido utilizadas para divulgar desinformación de forma masiva a través de las redes sociales con un único fin político”.
Esto se ha demostrado desde hace casi una década, gracias a investigaciones como las de Jacob Ratkiewicz y otros docentes de la Universidad de Indiana en 2011, quienes lograron comprobar el uso de bots en Twitter en medio de las elecciones de mitad de periodo en Estados Unidos en 2010. Las cuentas identificadas como bots maliciosos se dedicaron a apoyar a unos candidatos y a difamar a otros, “inyectando, además, miles de tuits que apuntaban a sitios web de desinformación y noticias falsas”, concluye el estudio.
En el caso de esta investigación, recordemos, desde el 29 de agosto de 2019 hasta el 30 de junio de 2020, un total de 8.927 usuarios utilizaron alguna de las siete tendencias identificadas en contra de la JEP (#ARomperLaJEP, #LaJEPDebeSerEliminada, #NoMásJEP, #ImpuniJEP, #RompamosLaJEP, #JEPTribunalDeTerroristas y #JEPEsImpunidad).
Para tener una muestra representativa de estos usuarios se seleccionaron las 300 cuentas más activas durante el período de análisis. Es decir, aquellas que generaron una mayor cantidad de tuits originales o retuits.
A cada uno de estos 300 usuarios (ver los primeros 20 en el gráfico) se les realizaron dos pruebas para comprobar la probabilidad de que fueran cuentas automatizadas o semiautomatizadas (cyborgs), estas últimas son cuentas administradas por humanos y, en ocasiones, dirigidas por un bot.
Las herramientas utilizadas para realizar las pruebas fueron: Botometer, desarrollada por la Universidad de Indiana y que extrae cerca de 1.200 características de cada cuenta (entre ellas, patrones de temporalidad, ritmo de actividad y la estructura de la red de amigos) para determinar la probabilidad de que una cuenta sea un bot. También se utilizó Pegabot, desarrollada por el Instituto de Tecnología y Equidad; el Instituto de Tecnología y Sociedad de Rio, y Enjambre Digital, una organización en defensa de los derechos digitales.
Ambas herramientas utilizan un porcentaje que mide a manera de “termometro” la probabilidad de que una cuenta sea bot (el verde indica que es un humano y la categoría de color rojo, muestra un comportamiento sospechoso).
Los resultados determinaron que el 69 % de este conjunto de usuarios son humanos y el 31 % probablemente sean cuentas automatizadas o semiautomatizadas. ¿Qué implica esto? En términos prácticos, evidencia que las tendencias en contra de la JEP no fueron 100 % espontáneas, es decir, además de usuarios inconformes o críticos contra este tribunal de paz, también hubo presencia de bots, que impulsaron estas etiquetas.
De los bots identificados se comprobó que el 98 % de su contenido son retuits, es decir, son retuiteadores o amplificadores profesionales, tanto de otros tuits como de enlaces a páginas web e incluso a publicaciones en plataformas como Facebook.
Al preguntarle a Jaime Arizabaleta y Ana María Abello (tuiteros uribistas y quienes impulsaron tres de los siete hashtags en contra de la JEP) si tenían conocimiento de que, detrás de estas etiquetas, también habían posibles cuentas automatizadas o semiautomatizadas, ambos contestaron que no sabían y que en sus publicaciones “hay excesiva interacción humana”, aseguraron.
El porcentaje de bots identificados parece ser poco representativo, pero posiblemente no lo es. En una investigación adelantada por Emilio Ferrara y otros profesores de la Universidad del Sur de California, se determinó que en promedio, los bots en Twitter representaban entre el 9 y 15 % del total de los usuarios. Sin embargo, los académicos proponen, que para centrarse en el problema de la desinformación hace falta ver más allá de esta representatividad numérica de los bots y “reflexionar sobre el refinamiento de otras estrategias para presentar información manufacturada”.
Durante los nueve meses de análisis se logró identificar que entre los 8.927 usuarios compartieron tres tipos de contenido: videos o montajes propios, titulares de medios de comunicación tradicionales y portales web, algunos de ellos de opinión y otros de desinformación.
(Le recomendamos: Ley de noticias falsas en Brasil: las cosas malas de una idea terrible)
Entre este último grupo está el Parche del Capuchino (mencionado en la entrega anterior), Periódico El Debate, Linterna Azul (que mezcla opinión con noticias de otros medios) y Oiga Noticias.
Este último es un portal de “noticias falsas” y también indexa publicaciones de otras páginas web. Una de sus entradas más populares en los datos titulaba “JEP respaldó ataque del ELN contra escuela militar”. De nuevo, esta información engañosa que responde a una tergiversación de las decisiones de la JEP. Y como se vio en la primera entrega, esta misma narrativa se traslada a los tuiteros y políticos del Centro Democrático, y, finalmente, es replicada a través de una plataforma con millones de usuarios.
La JEP no desconoce que existan campañas de desinformación en redes en contra de la entidad y sus funcionarios: “Hay mensajes repetitivos y cuentas que están dedicadas a sistemáticamente tratar de socavar la credibilidad de la entidad”, aseguró Hernando Salazar, subdirector de comunicaciones de la JEP. Pero aclaró, “sería irresponsable asegurar que solo hay máquinas moviendo estos hashtags en contra de la JEP, también hay gente que sigue creyendo en los engaños, y eso es lo más preocupante”.
Justamente, es este punto donde se cruzan los resultados de esta investigación, con el contexto político del país y las reflexiones desde la academia. A pesar de que la participación de cuentas automatizadas o semiautomatizadas no es despreciable en comparación con otros estudios, lo que se puede comprobar es que el uso de bots es solo un síntoma del problema de la desinformación. En palabras de Ferrara, “si los bots son los títeres, se necesitan esfuerzos adicionales para encontrar a sus titiriteros”.
Frente a este tema, Andrés Lombana, investigador del Berkman Klein Center de la Universidad de Harvard y docente de la Universidad Javeriana, asegura que “sin duda, hay presencia de bots, pero es difícil decir que es una operación exclusivamente de máquinas. Incluso, hay limitaciones en la misma detención de estas cuentas pues se está quedando atrás de la versión más refinada de estos”.
Asimismo, Lombana añadió que “lo que resulta incluso más difícil de detectar son “trolls” o cuentas de actores malignos, porque son humanos que muchas veces están utilizando herramientas de bots pero que están mezclados”.
¿Afecta esto el debate democrático? Según el académico, desde los extremos —tanto de la derecha como de la izquierda— sí conlleva implicaciones serias.
“Estas estrategias de propaganda, llamaría yo, no promueven un diálogo entre ciudadanos informados. Si algún sector busca eliminar o aplastar los argumentos del otro, afecta la deliberación sobre un tema tan complejo como la justicia transicional. No se puede hacer paz en un lugar donde está dominado por discursos polarizantes y que no dejan espacio para el debate”, aseguró.
*¿Tiene alguna duda sobre esta investigación? Escríbanos a vcortesv@elespectador. com