Represión en la calle, sensación de censura en redes
Una profesora universitaria me contaba que después de los problemas masivos que tuvo Instagram la primera semana del paro, sus estudiantes entendieron que las herramientas que usan cotidianamente para comunicarse, y ahora para denunciar, pueden fallar y que son controladas por un tercero, Facebook en este caso. Eso les hizo pensar en su vulnerabilidad. Tenemos que lidiar con la sensación de censura.
La censura afecta a quien la sufre pero sus motivos y alcance están íntimamente ligados con el censor que es quien la materializa. Aunque en la práctica el efecto es el mismo –no poder cargar en internet un video de una manifestación social, por ejemplo–, es muy diferente si se debe a que la red está congestionada, a que Instagram está teniendo una falla técnica o porque la policía puede estar usando un inhibidor de señal. Por eso la clave está en desenredar la madeja para entender su origen y naturaleza, hablemos de las redes sociales –Twitter, Facebook, Instagram, TikTok, etcétera–.
Primero, las redes sociales tienen reglas para su uso, las que aceptamos cuando nos registramos y aplican siempre, incluso en protesta. Cualquier acción que tomen las plataformas –automática o mediada por una persona–, se va a notar más en momentos de tensión social porque la atención sobre los temas es mayor de parte y parte. Así, por ejemplo, todas las redes prohíben a su modo compartir contenido violento. Cuando se usan para denunciar violencia estatal en una protesta, es más probable que la publicación caiga en la prohibición, aunque siempre habrán casos grises.
Si bien el origen del problema se entiende racionalmente –una empresa privada que quiere tener “ambiente familiar” es tomada por los contenidos de las protestas–, la sensación de censura en un momento de tensión social queda y no podemos desconocerla, analicémosla.
Las plataformas normalmente se apoyan mayoritariamente en una inteligencia artificial (IA) entrenada para detectar contenido infractor entre millones de publicaciones y decidir. Sus algoritmos solo consideran unos cuantos datos del contenido para definir la acción o no de moderar el contenido. Sin embargo, la programación que determina el comportamiento de la IA puede reproducir sesgos si sus datos de entrenamiento no son lo suficientemente amplios –o no le permiten comprender el contexto– y por tanto, al malinterpretar el sentido de la publicación, modera el contenido con el consecuente efecto de invisibilización y afectación injusta.
Durante las protestas además hay que ver el efecto de escala. El uso de las redes sociales aumenta, no solo por la cantidad de contenidos que se suben sino también por la cantidad de interacciones y eso los algoritmos lo notan. Sin saber cómo funcionan estos programas, ni cómo definen los grises, sometidos al incremento de contenidos y, encima, con la inmediatez de una protesta en que la conducta “infractora” la repite la misma persona en pocos minutos, el proceso automatizado fácilmente bloquea contenidos y cierra cuentas.
En la protesta sucede una excesiva moderación de contenidos, que refuerza la sensación de censura en la gente. Siguiendo con el ejemplo de la denuncia de violencia estatal, dado el carácter de la información que se afecta, puede derivar en la eliminación de evidencias de delitos atroces, o la imposibilidad de que alguien ayude en una situación de urgencia –si el contenido moderado era una transmisión en vivo, por ejemplo–. No cabe duda, estas acciones afectan especialmente a las poblaciones vulnerables y la oportunidad de mostrar y documentar la situación se pierde.
Además, la sensación de censura a veces se relaciona con fallas en la infraestructura de la plataforma. El 4 de mayo, en medio del paro, el sistema de “tendencias” de Twitter dejó de funcionar por un rato llevando a conclusiones apresuradas de censura, mientras se confirmó que era un problema mundial que duró poco tiempo.
En cambio, lo sucedido con Instagram es más complejo. El 6 de mayo amanecimos con mucho ruido en redes sociales sobre la desaparición de las “historias” de esa plataforma en una situación que se extendió hasta el día siguiente. Instagram informó que tenía una falla global y la reparó. La explicación de la plataforma dice que fue un problema más allá de Colombia, afectó también a comunidades indígenas de EE. UU. y Canadá, y al pueblo palestino. La explicación de Instagram tiene sentido pero no puede decirse, como lo hace la empresa, que fue global. La explicación no justifica la focalizada afectación a poblaciones que esos días estaban en un momento de tensión socio-política. Este asunto requiere más análisis.
De otra parte, las plataformas ya saben que no se trata sólo de insistir en que quieren proteger el “ambiente familiar”, saben que son herramienta de expresión y tienen responsabilidades frente al ejercicio de derechos humanos, de hecho hacen acciones de mitigación. Por ejemplo, con el pasar de los días en este paro nacional, vimos que disminuían los reclamos por bloqueos de contenidos o cuentas cerradas y aumentaban las que advertían que les restringía el alcance de sus publicaciones o les ponían avisos que advertían que el contenido era sensible. Es menos grave el aviso que permite que el contenido circule, pero para la gente sigue estando en el marco de la sensación de censura.
Estas empresas también están bajo presión, pues sus herramientas pueden usarse para “instigar a la violencia” o disparar la “desinformación” y así lo reclaman un sinnúmero de otros actores. Una línea de estudio actual es la forma como los gobiernos inciden en los procesos de moderación de las plataformas. Una forma de respuesta de estas empresas ha sido, por ejemplo, publicar informes de transparencia para reportar sobre sus procesos de moderación incluyendo estos pedidos y su trámite.
Las redes sociales tienen un importante rol en la expresión de las sociedades, la voz que dieron a poblaciones y causas invisibilizadas, nos obliga a seguir explorando y denunciando el impacto cuando al aplicar sus normas rompen la promesa en el momento en que las personas encuentran un poderoso sentido para usarlas para elevar su voz, para visibilizar sus causas y demostrar que son víctimas de violencia.
También el ecosistema debe hacerse cargo de la sensación de censura en la calle con más información. Las plataformas deben informar públicamente las medidas que toman para mitigar las posibles afectaciones a la libertad de expresión en momentos sensibles, deben seguir transparentando las peticiones de los estados y además, deben dar información detallada sobre sus fallos técnicos explicando su impacto. Superada la sensación de censura debemos lidiar con los efectos de la moderación de contenidos, por ejemplo, ¿cómo se garantiza que se preserven las evidencias de delitos que terminan desapareciendo?, por citar apenas un caso.
Una profesora universitaria me contaba que después de los problemas masivos que tuvo Instagram la primera semana del paro, sus estudiantes entendieron que las herramientas que usan cotidianamente para comunicarse, y ahora para denunciar, pueden fallar y que son controladas por un tercero, Facebook en este caso. Eso les hizo pensar en su vulnerabilidad. Tenemos que lidiar con la sensación de censura.
La censura afecta a quien la sufre pero sus motivos y alcance están íntimamente ligados con el censor que es quien la materializa. Aunque en la práctica el efecto es el mismo –no poder cargar en internet un video de una manifestación social, por ejemplo–, es muy diferente si se debe a que la red está congestionada, a que Instagram está teniendo una falla técnica o porque la policía puede estar usando un inhibidor de señal. Por eso la clave está en desenredar la madeja para entender su origen y naturaleza, hablemos de las redes sociales –Twitter, Facebook, Instagram, TikTok, etcétera–.
Primero, las redes sociales tienen reglas para su uso, las que aceptamos cuando nos registramos y aplican siempre, incluso en protesta. Cualquier acción que tomen las plataformas –automática o mediada por una persona–, se va a notar más en momentos de tensión social porque la atención sobre los temas es mayor de parte y parte. Así, por ejemplo, todas las redes prohíben a su modo compartir contenido violento. Cuando se usan para denunciar violencia estatal en una protesta, es más probable que la publicación caiga en la prohibición, aunque siempre habrán casos grises.
Si bien el origen del problema se entiende racionalmente –una empresa privada que quiere tener “ambiente familiar” es tomada por los contenidos de las protestas–, la sensación de censura en un momento de tensión social queda y no podemos desconocerla, analicémosla.
Las plataformas normalmente se apoyan mayoritariamente en una inteligencia artificial (IA) entrenada para detectar contenido infractor entre millones de publicaciones y decidir. Sus algoritmos solo consideran unos cuantos datos del contenido para definir la acción o no de moderar el contenido. Sin embargo, la programación que determina el comportamiento de la IA puede reproducir sesgos si sus datos de entrenamiento no son lo suficientemente amplios –o no le permiten comprender el contexto– y por tanto, al malinterpretar el sentido de la publicación, modera el contenido con el consecuente efecto de invisibilización y afectación injusta.
Durante las protestas además hay que ver el efecto de escala. El uso de las redes sociales aumenta, no solo por la cantidad de contenidos que se suben sino también por la cantidad de interacciones y eso los algoritmos lo notan. Sin saber cómo funcionan estos programas, ni cómo definen los grises, sometidos al incremento de contenidos y, encima, con la inmediatez de una protesta en que la conducta “infractora” la repite la misma persona en pocos minutos, el proceso automatizado fácilmente bloquea contenidos y cierra cuentas.
En la protesta sucede una excesiva moderación de contenidos, que refuerza la sensación de censura en la gente. Siguiendo con el ejemplo de la denuncia de violencia estatal, dado el carácter de la información que se afecta, puede derivar en la eliminación de evidencias de delitos atroces, o la imposibilidad de que alguien ayude en una situación de urgencia –si el contenido moderado era una transmisión en vivo, por ejemplo–. No cabe duda, estas acciones afectan especialmente a las poblaciones vulnerables y la oportunidad de mostrar y documentar la situación se pierde.
Además, la sensación de censura a veces se relaciona con fallas en la infraestructura de la plataforma. El 4 de mayo, en medio del paro, el sistema de “tendencias” de Twitter dejó de funcionar por un rato llevando a conclusiones apresuradas de censura, mientras se confirmó que era un problema mundial que duró poco tiempo.
En cambio, lo sucedido con Instagram es más complejo. El 6 de mayo amanecimos con mucho ruido en redes sociales sobre la desaparición de las “historias” de esa plataforma en una situación que se extendió hasta el día siguiente. Instagram informó que tenía una falla global y la reparó. La explicación de la plataforma dice que fue un problema más allá de Colombia, afectó también a comunidades indígenas de EE. UU. y Canadá, y al pueblo palestino. La explicación de Instagram tiene sentido pero no puede decirse, como lo hace la empresa, que fue global. La explicación no justifica la focalizada afectación a poblaciones que esos días estaban en un momento de tensión socio-política. Este asunto requiere más análisis.
De otra parte, las plataformas ya saben que no se trata sólo de insistir en que quieren proteger el “ambiente familiar”, saben que son herramienta de expresión y tienen responsabilidades frente al ejercicio de derechos humanos, de hecho hacen acciones de mitigación. Por ejemplo, con el pasar de los días en este paro nacional, vimos que disminuían los reclamos por bloqueos de contenidos o cuentas cerradas y aumentaban las que advertían que les restringía el alcance de sus publicaciones o les ponían avisos que advertían que el contenido era sensible. Es menos grave el aviso que permite que el contenido circule, pero para la gente sigue estando en el marco de la sensación de censura.
Estas empresas también están bajo presión, pues sus herramientas pueden usarse para “instigar a la violencia” o disparar la “desinformación” y así lo reclaman un sinnúmero de otros actores. Una línea de estudio actual es la forma como los gobiernos inciden en los procesos de moderación de las plataformas. Una forma de respuesta de estas empresas ha sido, por ejemplo, publicar informes de transparencia para reportar sobre sus procesos de moderación incluyendo estos pedidos y su trámite.
Las redes sociales tienen un importante rol en la expresión de las sociedades, la voz que dieron a poblaciones y causas invisibilizadas, nos obliga a seguir explorando y denunciando el impacto cuando al aplicar sus normas rompen la promesa en el momento en que las personas encuentran un poderoso sentido para usarlas para elevar su voz, para visibilizar sus causas y demostrar que son víctimas de violencia.
También el ecosistema debe hacerse cargo de la sensación de censura en la calle con más información. Las plataformas deben informar públicamente las medidas que toman para mitigar las posibles afectaciones a la libertad de expresión en momentos sensibles, deben seguir transparentando las peticiones de los estados y además, deben dar información detallada sobre sus fallos técnicos explicando su impacto. Superada la sensación de censura debemos lidiar con los efectos de la moderación de contenidos, por ejemplo, ¿cómo se garantiza que se preserven las evidencias de delitos que terminan desapareciendo?, por citar apenas un caso.