Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Decir que Facebook está pasando por momentos difíciles equivale por estos días (y quizá desde hace un rato) a disparar un deja vu inmediato: ¿estamos hablando de los ataques étnicos de 2017 contra los Rohingya en Myanmar?, ¿del escándalo de Cambridge Analytica en 2018?, ¿el asalto de 2020 contra el Capitolio en Estados Unidos?
Hay una cosa que parece cierta hoy y es que el momento actual de la compañía es quizá uno de sus puntos más bajos en términos de reputación, pero también de revelaciones acerca de todas las cosas que están mal al interior de la compañía y con el producto Facebook. La escala de los problemas corresponde al tamaño propio de la compañía: una presencia global, con miles de millones de usuarios a través de miles de fronteras culturales, que termina respondiendo a una burocracia corporativa relativamente pequeña, con un fundador que ostenta control casi absoluto en las grandes decisiones de la empresa.
Este lunes, un consorcio de medios reveló la información que contienen unos 10.000 documentos (redactados) que fueron entregados al Congreso de Estados Unidos por Frances Haugen, una exempleada de Facebook que el pasado 5 de octubre testificó ante los legisladores estadounidenses para ofrecer su versión sobre los problemas que aquejan a la plataforma.
Haugen fue a su vez la fuente de los documentos que sirvieron de base para una extensa investigación del diario The Wall Street Journal que fue publicada el 15 de septiembre y que constituye el punto de partida del escándalo actual alrededor de Facebook. De fondo, el hallazgo central del trabajo de ese diario es que la compañía entiende, mejor que nadie, los problemas que han ido surgiendo en medio de su meteórica expansión global, lo que lleva a pensar que las soluciones no se toman por falta de diagnóstico, sino por la complejidad de los desafíos o la falta de voluntad para implementar cambios estructurales.
El consorcio detrás de las revelaciones de este lunes está conformado por medios como Wired, The Washington Post, The New York Times, The Atlantic y NBC, entre otros varios.
Aunque los enfoques de cada publicación varían, hay un tema común, que resuena con los hallazgos del Journal: la empresa es consciente de los daños y males que su plataforma causa en la sociedad. Parafraseando una de las conclusiones de estas investigaciones: los algoritmos de Facebook causan polarización y la compañía tiene claro cuánto discurso de odio hay en la plataforma, cuánta desinformación hay en ella. Pero no dice nada públicamente sobre eso.
Los documentos originales (a los que no ha tenido acceso El Espectador, vale la pena aclarar) se componen de copias o capturas de pantalla de presentaciones, estudios hechos al interior de la plataforma, discusiones internas entre empleados y memorandos que detallan acciones estratégicas.
Un portavoz de la red social, citado por el Washington Post, aseguró que los hallazgos de los llamados Facebook Papers “están basados en documentos seleccionados” y “tienen una falta absoluta de contexto”. A su vez aseguró que “no tenemos incentivo moral o comercial para hacer nada que no sea entregar la mejor experiencia posible para el mayor número de personas”.
Discurso de odio y desinformación
Uno de los hallazgos de estas investigaciones es la escala del discurso de odio y la desinformación versus las acciones que ha tomado Facebook para controlar este fenómeno en su plataforma, variadas, en distintos niveles y a lo largo de años, vale la pena aclarar. Los reportes sobre los documentos pintan un panorama en el que la compañía entiende que sus esfuerzos de moderación en mercados que no son de habla inglesa debilitan las salvaguardas para los usuarios y permiten el abuso por parte de actores malintencionados o regímenes opresores.
Un documento del año pasado detalla cómo 84 % de los esfuerzos de la plataforma contra la desinformación se centró en Estados Unidos, mientras que para el resto del mundo se dedicó 16 % de éstos.
Uno de los terrenos en los que más activamente ha trabajado la plataforma es la moderación de contenido. Pero lo cierto es que este tema es una suerte de campo minado en el que hay problemas de escala global, pero sin soluciones que se puedan implementar en la misma escala: una talla acá no les sirve a todos y, en muchos casos, a nadie.
Moderar contenido a escala global es prácticamente imposible, en buena parte porque unas pocas personas se ponen de acuerdo para definir qué es discurso de odio y qué no lo es: si se limita a asuntos raciales, de género, religión u otras categorías que típicamente han estado sometidas a prácticas de odio, si incluye todas las formas de acoso y matoneo o si sólo aplica cuando se ejerce desde una posición de poder en contra de quienes no lo han tenido.
Lea también: Zuckerberg dice que el futuro de Facebook está en el “metaverso”¿A qué se refiere?
“Estos problemas de definición, que suelen enredar a autoridades judiciales en todo el mundo, también impactan el trabajo de las plataformas en línea. Como resultado de estos debates y controversias, los esfuerzos para remover el discurso de odio suelen hacerse a expensas de la libertad de expresión”, escribieron Jillian York y David Greene en una publicación de la Electronic Frontier Foundation (EFF), una de las organizaciones de derechos digitales más grandes en el mundo.
Los investigadores de EFF agregan que “a pesar de que una porción de la moderación se realiza de forma manual, Facebook y otras compañías están utilizando de forma creciente tecnologías de automatización para lidiar con este contenido, lo que implica que el toque humano (que entiende sutilezas, matices y contextos) no está siempre presente en estas labores”.
Y quedar en manos de máquinas no suele ser la mejor opción cuando se está hablando de escenarios en los que están en juego la supervivencia de grupos étnicos o la exposición de abusos policiales en el marco, digamos, del pasado paro nacional.
En los documentos suministrados por Haugen se escuchan las voces de empleados de Facebook que piden más y mejores acciones para controlar los problemas alrededor de la plataforma, particularmente después del asalto al Capitolio de EE.UU., el cual fue instigado y coordinado en muy buena parte a través de esta red social.
Adrienne LaFrance, editora ejecutiva de The Atlantic, escribe “los Facebook Papers muestran, una y otra vez, a empleados sonando las alarmas acerca de los peligros que representa la plataforma —cómo Facebook amplifica el extremismo y la desinformación, cómo incita a la violencia, cómo alimenta la radicalización y la polarización política”. En uno de los documentos reportados uno de los trabajadores de la compañía escribe “la historia no nos juzgará amablemente”.
Hay que decir acá que la escala de los retos y problemas de Facebook bien se puede ver desde un punto de vista de tecnología (manejo de algoritmos, despliegue de nuevas y mejores herramientas de moderación de contenido). Pero nada de esto sucede en un vacío. Al final: se trata de decisiones humanas (así le sean endilgadas a una corporación). Y desde el punto de vista de las personas hay preguntas interesantes para hacerse en todo este escenario.
Olivia Solon, reportera de NBC, ofrece un resumen elocuente, y algo más matizado, del aspecto humano del caso Facebook: “Parece haber mucha más ineptitud que malicia y el tránsito entre ‘sabemos acerca de X’ a ‘hacer algo para solucionar X’ es mucho más complejo y difícil de lo que uno podría esperar de una compañía que se precia públicamente en ser ágil”.
El gran problema
“Vi a Facebook enfrentarse repetidamente a conflictos entre sus propios beneficios y nuestra seguridad. Facebook resolvió consistentemente esos conflictos a favor de su propio beneficio. El resultado ha sido más división, más daño, más mentiras, más amenazas y más enfrentamientos”.
Estas fueron algunas de las declaraciones que Haugen hizo frente al Congreso de EE.UU. a principios de este mes. Los documentos revelados este lunes, bajo la luz de The Washington Post, ofrecen una mirada extra sobre este tipo de conflictos.
Según una de las publicaciones realizadas por el diario estadounidense, el año pasado Facebook decidió cumplir con demandas del gobierno de Vietnam para bloquear a disidentes en la plataforma, bajo el riesgo que al no hacerlo el servicio podría quedar fuera de línea en este país. Según cifras reportadas por Amnistía Internacional, los ingresos anuales de la compañía en el mercado vietnamita ascendían a US$1.000 millones anuales para 2018.
La investigación del Post asegura que Mark Zuckerberg personalmente aprobó cumplir con la demanda del gobierno de Vietnam y parte de la argumentación de la compañía para tomar esta decisión es que el mal mayor para los usuarios locales sería cortar Facebook del todo en ese país.
Es una argumentación que, desde ciertas esquinas, no está desprovista de cierta lógica: la plataforma provee un punto de conexión que para algunas personas y negocios puede resultar único. Así mismo, también es una plataforma través de la cual se evidencia el disenso y la protesta, aunque esto último tiene bemoles importantes: puede que los usuarios no lo noten pero la protesta digital en buena medida equivale hoy en día a ejercer derechos fundamentales al interior de un centro comercial: es una discusión pública, pero en entornos privados, bajo reglas establecidas por una corporación.
De cierta forma, el caso de Vietnam (además de asuntos de libertad de expresión) sirve para hacer preguntas como ¿es posible arreglar los problemas de la plataforma en una escala global? o ¿es posible un mundo sin Facebook? ¿Cómo se vería este escenario?
Estos interrogantes van en línea con un memorando interno, reseñado por el New York Times, en el que se asegura que funciones críticas de la plataforma (como el botón de “me gusta” y otros mecanismos de interacción en Facebook) son las que permiten que la desinformación y el odio pululen en el sitio. El artículo lo resume al cuestionar si el problema con Facebook es, bueno, ser Facebook.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.