Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Cuando se presentó el polémico proyecto de extradición entre China y Hong Kong, en febrero del año pasado y retirado el pasado miércoles, nadie pudo predecir lo que iba a ocurrir. Pese a las advertencias de la dirigencia, los opositores del gobierno de Xi Jinping desataron una ola de violencia pocas veces vista en el territorio asiático. El cuadro podría quedarse ahí, como una alteración del orden público. Pero todo cambió cuando se conocieron denuncias de Twitter y Facebook sobre cerca de mil cuentas falsas administradas desde las altas esferas de la política china, para desacreditar a los líderes y los argumentos de las protestas.
¿El hecho sorprende? No, las lógicas del mundo moderno, en el que la división entre lo real y lo digital es abstracta y vaga, nos advierten que desde hace unos años la política —o cualquiera que tenga suficiente poder— es capaz de infiltrar ideas o posiciones ideológicas en las redes para moldear nuestras decisiones. Lo peor es que casos como estos florecen todo el tiempo y seguramente lo seguirán haciendo de aquí en adelante.
Últimamente palabras como bots o “troles” se han normalizado en la red y casi siempre aparecen cuando hay algún escándalo mediático o político o incluso un tiroteo. Por eso, entender su funcionamiento es clave para saber a qué nos enfrentamos cuando entramos a cualquier plataforma digital. Como abrebocas hay que entender que los primeros son utilizados para propagar información seleccionada previamente e imponer agenda, mientras que los segundos son agentes del caos que, además de desestabilizar los debates, logran un propósito mucho más profundo y oscuro: la autocensura a través del improperio o el ataque.
Puede leer: Reactivan demanda contra Facebook por caso Cambridge Analytica
El caso de Jessi Richly, una adolescente estadounidense de Minnesota, citado en un informe de The New York Times, es revelador. Hace un tiempo, una cuenta idéntica a la de ella en Twitter, con algunos cambios en el color de su foto de perfil y en su nombre de usuario, empezó a seguir y a retuitear, sin su conocimiento, cuentas en árabe o Indonesio. También empezó a promover pornografía gráfica, cuentas de inmobiliarias canadienses y hasta una emisora en Ghana.
Los responsables del episodio se esconden detrás de Devumi, una empresa que se dedica a vender seguidores en Twitter y retuits a todo tipo de personalidades. La investigación del periódico estadounidense reveló que, a partir de un banco de tres millones de cuentas falsas que replican contenido automáticamente, cada una vendida más de una vez, el portal ha logrado recaudar millones de dólares.
“En la actualidad las cuentas falsas que han sido creadas por gobiernos, delincuentes y empresarios infestan las redes sociales. Según algunos cálculos, hasta 48 millones de los usuarios activos de Twitter, casi el 15 %, son cuentas automatizadas diseñadas para simular ser personas reales, aunque la compañía afirma que ese número es mucho menor”, asegura The New York Times.
El uso de los bots se reduce al objetivo para el cual sean utilizados, que puede pasar casi que por cualquier ámbito de las sociedades de hoy en día. Su funcionamiento, en cambio, puede ser de tres distintos tipos: el primero es el bot programado, es decir, ese que publica mensajes cada cierto tiempo. Esto se hace con fórmulas poco complejas de programación. El segundo es el que vigila cuándo otras cuentas de Twitter realizan algún cambio. Este funciona bien cuando hay una noticia de último minuto y no en todos los casos es negativo. El último es que amplifica cierto mensaje, por lo que si una cuenta publica contenido, el bot sabe que tiene que retuitearlo o darle “me gusta”.
Le recomendamos: “Nada es privado”
Empresas que venden bots. Hasta hace unos meses la venta del tercer tipo de bots era el negocio de Devumi, quienes tenían como clientes a importantes celebridades y personas importantes del mundo de la política, como John Leguízamo, el multimillonario Michael Dell o Martha Lane Fox, una de las integrantes de la junta de Twitter. Sin embargo, al consultar su página web, luego de la publicación del informe del Times, es imposible solicitar un servicio. No obstante, recomiendan otras páginas que ofrecen servicios similares, como SocialBoss.org, Intagrowing.net y Youtubegrow.com.
La creación de las cuentas falsas es un problema importante para Twitter a toda escala, comenzando desde la suplantación de personalidades hasta la constante amenaza que significan para la democracia, teniendo en cuenta lo relevantes que han sido, junto con los troles, en procesos electorales recientes. Tanto así que la empresa ha recalcado en varias ocasiones estar luchando duramente contra ellas y los responsables de crearlas.
“Con el fin de mantener un entorno seguro para los usuarios de Twitter, nos reservamos el derecho de suspender las cuentas que incumplan las reglas de Twitter. Entre los motivos frecuentes de la suspensión se incluye el spam, los riesgos para la seguridad de la cuenta y tuits o comportamientos abusivos”, asegura la red social en su centro de ayuda online.
Y es que uno de los grandes problemas que tiene la compañía tecnológica es que cotiza en la bolsa de valores Nasdaq, por lo que una de las variables más importantes que usan los inversores para decidir si comprar o vender acciones es, en pocas palabras, la cantidad de usuarios, las interacciones y publicaciones en la red. Esto le juega a dos bandas a Twitter, porque mientras por un lado necesita crecery, por lo tanto, aumentar su número de cuentas activas, también debe velar por la seguridad del ecosistema.
Le puede interesar: Los escándalos que envenenan a Facebook
Por eso, en julio del año pasado, Twitter decidió hacer una purga masiva de cuentas a sabiendas de que eso podía afectarla en términos económicos. Según el Washington Post, en menos de dos meses se bloquearon cerca de setenta millones de cuentas por considerarlas “falsas o sospechosas”. La cifra básicamente duplicó la del año anterior.
La periodista argentina Mariana Moyano ha estudiado de cerca el tema, el cual aborda en su libro Trolls S.A. La industria del odio en internet. Sobre esta situación señaló: “A la política la purga le dio de lleno: el presidente Donald Trump perdió 204.000 de sus 53,3 millones de seguidores. Barack Obama perdió casi 2,4 millones, algo así como el 2,5 %. CNN perdió cerca de un millón y el New York Times , alrededor de 730.000. Hasta Twitter sufrió: perdió más del 12 % de sus seguidores”.
Un mar de troles y “bots”
El trol o el bot de hoy en día es un arma no solo para ser popular o conocido, sino para ganar poder e influir en la política. Casos hay de sobra. Después de que explotara el escándalo de Cambridge Analytica en las elecciones presidenciales de Estados Unidos en 2016, en los que quedó evidenciado el uso de cuentas falsas para tocar ciertos sentimientos de la sociedad y así manipular su decisión en las urnas, se ha revelado que la empresa intervino de manera directa en procesos electorales de todo el mundo.
El propio Facebook, durante su evento F8 del año pasado, aseguró que había estado desactivando cuentas de origen ruso tratando de interferir en procesos electorales. El caso de Trinidad y Tobago, uno de los países en los que Cambridge Analytica estuvo presente durante unos comicios, refleja el potencial de este tipo de juego sucio. En un país donde convive la comunidad negra con la indígena, la compañía decidió implementar una campaña no política, sino reactiva, por lo que encontraron otro tipo de símbolos para separar a estas dos comunidades locales. Así, disfrazaron el movimiento “Do so” en un grupo de resistencia que no salió a votar, justamente lo que ellos querían.
Brittany Kaiser, exfuncionaria de Cambridge Analytica, aseguró en 2015 que intervendrían también en Reino Unido: “Trabajamos en la campaña del brexit. En Leave. UE haremos una investigación a gran escala en todo el país para comprender por qué a la gente le interesa permanecer o salir de la Unión Europea. Las respuestas fundamentarán nuestras políticas y comunicaciones para poder obtener más votantes nuevos, más votantes no registrados e indiferentes que otras veces”.
Puede leer: Así se usa la inteligencia artificial para combatir a los hackers
El tema en Argentina también es delicado. De hecho, cuando el presidente Mauricio Macri presentó su nueva plataforma de gobierno, en octubre de 2017, el medio local Chequeado asegura que participaron cerca de 15.000 cuentas activas en Twitter y se generaron 90.000 mensajes. “Pero al menos el 3 % de esas cuentas —casi 600 supuestas “personas”— se comportó como un bot haciendo casi el 10 % de los tuits totales. Y esos números están lejos de ser una excepción. Si revisamos la red durante el anuncio de la recuperación de la #Nieta125 los porcentajes de cuentas con características automatizadas son similares: 4,5 %”, asegura Chequeado.
En el documental The Great Hack, de Netflix, Brittany Kaiser, exempleada de Cambridge Analytica, explica cómo era el modus operandi de la compañía que dirigía Alexander Nix: “La estrategia está dirigida a identificar a aquellos que aún consideran diferentes opciones y concientizarlos sobre las opciones que existen y, si están indecisos, se los puede convencer de alguna manera”.
Gonzalo Carbajal, publicista y asesor político en comunicación política, coincide con Kaiser en su enfoque de los públicos. En conversación con la periodista argentina Mariana Moyano, para su libro Trolls S.A. La industria del odio en internet, señaló: “Existen al menos tres destinatarios a los cuales les hablan los políticos. El primero es el protodestinatario, que es el cercano a la ideología, luego está el contradestinatario, es decir, con quien voy a polemizar o a quien voy a hostigar. Por último el paradestinatario, que es el que debo acercar a mis posiciones. Muchas veces no es activo, pero estemos seguros de que mira y lee lo que escribimos (...) El modo en que hablemos frente a los temas y personas influirá en la manera en que nos vamos ubicando en su mente”.