Facebook lleva tres años sin aplicar una de sus normas de contenido
El Consejo asesor de la compañía advirtió que no se trasladó una parte de la política sobre personas peligrosas al sistema de revisión que usan los moderadores desde 2018. Urgió a Facebook restituir la norma de inmediato.
Desde 2018, Facebook e Instagram han dejado de aplicar una de sus normas de contenido, que establece una excepción que permite hablar sobre los derechos humanos de personas u organizaciones peligrosas. Así lo alertó el Consejo asesor de contenido de Facebook (Oversight Board), el organismo de expertos independientes que aconseja a Facebook en casos complejos de moderación.
Esta advertencia se ha producido en el contexto de una resolución del Consejo asesor por la eliminación de una publicación de Instagram de enero de este año que alentaba a debatir la reclusión solitaria en una cárcel de Turquía de Abdullah Öcalan, un miembro fundador del Partido de los Trabajadores de Kurdistán (PKK).
Debido al uso de la violencia por parte del PKK, tanto el partido como Öcalan se designaron como entidades peligrosas de conformidad según la política sobre personas y organizaciones peligrosas de Facebook, por lo que el post se borró y Facebook rechazó su readmisión.
Lea también: La demanda colectiva de Donald Trump contra Facebook, Twitter y Google
No obstante, en una resolución de Consejo asesor de contenido de Facebook publicada esta semana, este ha alertado de que “por accidente no se trasladó” una parte de la política sobre personas peligrosas de Facebook, creada en 2017, al sistema de revisión que usan sus moderadores desde 2018.
Esta pauta, que “abre el debate sobre las condiciones de reclusión de personas designadas como peligrosas”, hizo que el contenido volviese a permitirse en Instagram el pasado 23 de abril.
Asimismo, Facebook informó al Consejo asesor de que se encontraba “trabajando en una actualización de sus políticas a fin de permitir que los usuarios debatan sobre los derechos humanos de personas designadas como peligrosas”. La publicación eliminada no apoyaba a Öcalan ni al PKK, solo animaba a debatir sobre sus derechos humanos por su reclusión.
En sus conclusiones, el Consejo ha asegurado que la decisión de eliminar el contenido por parte de Facebook “no fue coherente” con sus propias normas, y se ha afirmado que le preocupa “que Facebook haya pasado por alto una pauta específica sobre una excepción importante de la política durante tres años”.
Le puede interesar: WhatsApp prepara la opción de enviar imágenes y videos en alta calidad
El Consejo considera que, debido al error de Facebook, es posible que se hayan eliminado por equivocación muchas otras publicaciones desde 2018 y que los informes de transparencia de Facebook no bastan para evaluar si este tipo de error refleja un problema del sistema.
Por ello, los expertos independientes han pedido a Facebook que restituya la norma extraviada de 2017 de inmediato, que evalúe sus procesos de revisión a publicaciones sobre personas y organizaciones peligrosas y que publique estos resultados, así como que garantice que sus moderadores reciben la formación adecuada.
Asimismo, también ha solicitado a la compañía que agregue una explicación más clara en sus políticas sobre cuándo considera que una publicación apoya a un líder peligroso y cómo los usuarios pueden dejar claras cuáles son sus intenciones.
Desde 2018, Facebook e Instagram han dejado de aplicar una de sus normas de contenido, que establece una excepción que permite hablar sobre los derechos humanos de personas u organizaciones peligrosas. Así lo alertó el Consejo asesor de contenido de Facebook (Oversight Board), el organismo de expertos independientes que aconseja a Facebook en casos complejos de moderación.
Esta advertencia se ha producido en el contexto de una resolución del Consejo asesor por la eliminación de una publicación de Instagram de enero de este año que alentaba a debatir la reclusión solitaria en una cárcel de Turquía de Abdullah Öcalan, un miembro fundador del Partido de los Trabajadores de Kurdistán (PKK).
Debido al uso de la violencia por parte del PKK, tanto el partido como Öcalan se designaron como entidades peligrosas de conformidad según la política sobre personas y organizaciones peligrosas de Facebook, por lo que el post se borró y Facebook rechazó su readmisión.
Lea también: La demanda colectiva de Donald Trump contra Facebook, Twitter y Google
No obstante, en una resolución de Consejo asesor de contenido de Facebook publicada esta semana, este ha alertado de que “por accidente no se trasladó” una parte de la política sobre personas peligrosas de Facebook, creada en 2017, al sistema de revisión que usan sus moderadores desde 2018.
Esta pauta, que “abre el debate sobre las condiciones de reclusión de personas designadas como peligrosas”, hizo que el contenido volviese a permitirse en Instagram el pasado 23 de abril.
Asimismo, Facebook informó al Consejo asesor de que se encontraba “trabajando en una actualización de sus políticas a fin de permitir que los usuarios debatan sobre los derechos humanos de personas designadas como peligrosas”. La publicación eliminada no apoyaba a Öcalan ni al PKK, solo animaba a debatir sobre sus derechos humanos por su reclusión.
En sus conclusiones, el Consejo ha asegurado que la decisión de eliminar el contenido por parte de Facebook “no fue coherente” con sus propias normas, y se ha afirmado que le preocupa “que Facebook haya pasado por alto una pauta específica sobre una excepción importante de la política durante tres años”.
Le puede interesar: WhatsApp prepara la opción de enviar imágenes y videos en alta calidad
El Consejo considera que, debido al error de Facebook, es posible que se hayan eliminado por equivocación muchas otras publicaciones desde 2018 y que los informes de transparencia de Facebook no bastan para evaluar si este tipo de error refleja un problema del sistema.
Por ello, los expertos independientes han pedido a Facebook que restituya la norma extraviada de 2017 de inmediato, que evalúe sus procesos de revisión a publicaciones sobre personas y organizaciones peligrosas y que publique estos resultados, así como que garantice que sus moderadores reciben la formación adecuada.
Asimismo, también ha solicitado a la compañía que agregue una explicación más clara en sus políticas sobre cuándo considera que una publicación apoya a un líder peligroso y cómo los usuarios pueden dejar claras cuáles son sus intenciones.