Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
La llamada “sobrecarga de información” ha dificultado separar el trigo de la paja y, en algunos casos, la desinformación difundida a través de las redes sociales parece haber precipitado la violencia en la vida real, a veces con consecuencias fatales. (Lea "Facebook, ¿el nuevo guardián de la 'verdad'?")
Por ejemplo, en un incidente reciente, los usuarios de Twitter en India expresaron su enfado cuando un miembro del partido gobernante difundió una imagen sacada de contexto, en lo que parecía un esfuerzo para avivar las tensiones sociales durante un disturbio en el estado indio de Bengala Occidental. Varias de estas imágenes fueron distribuidas a través de las redes sociales para sesgar la opinión pública en este período. En 2015, una posible imagen falsa circuló a través de WhatsApp y más tarde se vinculó con el posterior linchamiento de un musulmán en India, por la sospecha de que había sacrificado una vaca.
En este país, denunciar información falsa a la policía puede ser un primer paso para procesar a su remitente bajo leyes indias como la sección 67 de la ley de tecnologías de la información, si la información es percibida como “perjudicial para las mentes jóvenes” o la sección 468 del Código Penal indiosi las noticias se consideran “perjudiciales” a la reputación de alguien. Pero políticas como estas son difíciles de implementar de manera efectiva, que a menudo contravienen las protecciones para la libre expresión.
La sociedad civil en línea también es cada vez más proactiva, pues han aparecido varias iniciativas de desmentido de engaños dirigidas por personas bienintencionadas de diferentes sectores de la vida que tratan de exponer las noticias falsas como lo que son. Pero la investigación ha demostrado que las denuncias civiles de noticias falsas no suelen ser lo suficientemente rápidas o exhaustivas como para frenar el problema.
Por el momento, los posibles mitigadores de noticias falsas en línea pueden ser las propias empresas de redes sociales. Pero los expertos todavía no están decididos sobre cómo o si las compañías pueden cambiar sus comportamientos –por elección o por regulación– para minimizar el problema.
Ajuste de “tendencias” en Facebook
Como lugar importante para la difusión de noticias falsas, Facebook se ha encontrado en el centro de este debate. Tras las elecciones estadounidenses de 2016, los críticos denunciaron que la prevalencia de historias falsas que manchan a Hillary Clinton, difundidas principalmente en Facebook, pudo haber afectado al resultado de las elecciones estadounidenses. Estas acusaciones desencadenaron un continuo debate sobre cómo Facebook podría moderar la desinformación en su red, junto con múltiples ajustes técnicos de Facebook, en un intento por hacer que su red fuera menos fácil de usar para quienes distribuyen noticias falsas.
Recientemente, Facebook actualizó la fórmula de su característica “Tendencias”. Antes, los artículos con mayor participación aparecían en la sección “Tendencias”, pero ahora solamente aparecerán en la sección “Tendencias” los mensajes que hayan sido difundidos por otras fuentes de confianza. Los usuarios también están invitados a contribuir al sistema mediante la denuncia de noticias falsas directamente a la empresa.
Sin embargo, el CEO de Facebook, Mark Zuckerberg, dice que es difícil confiar en los comentarios de los usuarios, que pueden señalar el contenido potencialmente correcto como incorrecto, por intereses particulares. Ciertamente, investigaciones recientes parecen indicar que la mayoría de las personas no distinguen entre el contenido en línea real y el falso. Esto, junto con el hecho de que la mayoría de las noticias que recibimos en los sitios de redes sociales son de personas en nuestros círculos cercanos (ern quienes por lo general confiamos), hace de las redes sociales una plataforma ideal para propagar noticias falsas.
Lo único cierto es que hay grandes dificultades para cualquier entidad –ya sea una empresa, un gobierno o una persona– que tenga como objetivo separar lo real de lo falso.
La barrera del cifrado
Aunque la desinformación sigue circulando en las plataformas habituales de redes sociales, todos los ejemplos anteriores de India se convirtieron en virales en WhatsApp. Como la aplicación de mensajería basada en internet se ha convertido en una plataforma clave para difundir noticias e información, tanto para grupos de amigos como para empresas mediáticas, también ha servido cada vez más como un mecanismo para distribuir noticias falsas.
Pero la imagen se vuelve más compleja cuando se trata de noticias e información difundida a través de WhatsApp.
WhatsApp, propiedad de Facebook, es la aplicación de mensajería líder para usuarios de móviles fuera de Estados Unidos. A menudo es más fácil acceder a través de teléfono móvil que de Facebook u otras plataformas que llevan un mayor volumen de contenido y código.
Pero a diferencia de la tecnología que admite Facebook, que permite a la empresa ver y analizar lo que los usuarios publican, los operadores de WhatsApp no tienen forma de ver el contenido de los mensajes de los usuarios.
Esto se debe a que WhatsApp utiliza cifrado de extremo a extremo, donde sólo el remitente (en un extremo) y el receptor (en el otro extremo) pueden leer sus mensajes. Esta característica del diseño ha sido de ayuda para los usuarios –incluidos periodistas y defensores de los derechos humanos– que desean mantener sus comunicaciones privadas de la vigilancia del Gobierno.
Pero cuando se trata de la proliferación de la desinformación, esto representa un obstáculo importante. En una reciente entrevista con The Economic Times, el ingeniero de software de WhatsApp, Alan Kao, explicó que el cifrado subyacente de WhatsApp dificulta abordar el desafío de las noticias falsas, ya que los operadores de WhatsApp no tienen forma de ver qué información se está difundiendo en sus redes, a menos que los usuarios les informen a ellos directamente.
Al igual que otros productos propiedad de Facebook, WhatsApp tiene una política sobre uso aceptable que prohíbe el uso de la aplicación, entre otras cosas, para publicar “falsedades, declaraciones falsas o engañosas”. Pero esto parece más una sugerencia que una regla concreta y rápida. La aplicación no ofrece una forma de uso fácil para denunciar la violación de contenido, aparte de su opción “Report Spam” (denunciar spam).
Si bien es fácil ver por qué la compañía animaría a los usuarios a denunciar actitudes que violen el cumplimiento de la ley, esto podría no dar el mejor resultado en un país como India (y muchos otros). En realidad, ha habido varios casos de arrestos de personas que han criticado a políticos en WhatsApp. Y en abril de 2017, un tribunal indio dictaminó que un administrador de grupo de WhatsApp podría incluso ser condenado a sentencia de cárcel por publicaciones “ofensivas”.
De cualquier modo, parece que siempre existe el riesgo de que las compañías estén tomando ventaja indebida de su influencia sobre la actividad de internet.
*La versión original de este texto fue publicada por Global Voices. La traducción es de Iria Carballo. Licencia Creative Commons.