Publicidad

¿Cuáles son las notas de contexto que Meta quiere implementar?

Meta anunció el martes que pondrá fin al programa de verificación digital en Estados Unidos para reemplazarlo por un sistema de notas de contexto, similar al que usa la red social X.

Con información de agencias
07 de enero de 2025 - 11:00 p. m.
Facebook dispone de un programa de fact-checking en más de 26 idiomas que remunera a más de 80 medios en el mundo.
Facebook dispone de un programa de fact-checking en más de 26 idiomas que remunera a más de 80 medios en el mundo.
Foto: AFP - JOSH EDELSON
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

¿Cómo funcionan las notas de contexto?

Las notas de contexto son una herramienta de moderación colectiva de contenidos. Aparecen debajo de algunas publicaciones potencialmente engañosas.

Twitter las usa desde 2021 y en 2022 fueron generalizadas en la red social, comprada por Elon Musk en 2022 y renombrada X.

Las notas son propuestas y redactadas por usuarios voluntarios, que previamente deben inscribirse, y no son editadas por los equipos de X.

Después, “otros usuarios evaluarán si la nota es útil o no, según diferentes criterios, como la pertinencia de las fuentes y la claridad de la información”, precisó a AFP Lionel Kaplan, presidente de la agencia de creación de contenidos en las redes sociales Dicenda.

“Si hay suficientes valoraciones positivas de la nota, ésta aparecerá debajo del tuit para aportar información adicional”, detalló.

Las valoraciones “tienen en cuenta no solo el número de colaboradores que calificaron una publicación como útil o inútil, sino también si las personas que la valoraron parecen proceder de diversos ámbitos”, explica X en su sitio web.

El principio es el mismo que en Wikipedia. “Nos basamos en los usuarios más activos de una red social o plataforma para aumentar la calidad de los contenidos”, añadió Kaplan.

Meta, que anunció que su programa de notas será similar al de X, lo considera un sistema “menos parcial” que el fact-checking.

¿Cuáles son los riesgos?

Facebook dispone de un programa de fact-checking en más de 26 idiomas que remunera a más de 80 medios en el mundo, para usar sus “fact-checks” en su plataforma, en WhatsApp y en Instagram.

Con las valoraciones, “el problema es que la verificación depende de la multitud”, señala Christine Balagué, profesora del Instituto Mines-Télécom y fundadora de la red de investigación “Good in Tech”, que trabaja sobre la desinformación.

“La multitud puede decir lo correcto, pero también puede haber gente malintencionada que esté ahí para difundir información errónea”, asegura.

“Esta decisión afectará a los usuarios que quieren información precisa y fiable”, comenta en X Angie Drobnic Holan, responsable estadounidense de la red internacional de Fact-Checking (IFCN, por sus siglas en inglés).

“Los fact-checkers nunca han mostrado parcialidad en su trabajo y estas críticas provienen de personas que piensan que pueden exagerar los hechos y mentir sin ser refutados o contradichos”, añadió, destacando el clima de presión política en Estados Unidos en vísperas de la investidura del presidente electo Donald Trump.

Bill Adair, cofundador de la red IFCN dijo que es “inquietante ver a Mark Zuckerberg haciéndose eco de los ataques políticos a los fact-checkers porque sabe que los que participaron en su programa eran signatarios de una carta de principios que exigen transparencia e imparcialidad”.

Trump, que se mostró especialmente crítico con Meta y su jefe en los últimos años, acusando a la compañía de sesgo progresista, dijo que “probablemente” influyó en la decisión.

¿Son las valoraciones eficaces contra la desinformación?

Investigadores mostraron que las notas de contexto “reducen la difusión de desinformación en torno a un 20%” en la red X, admitió Christine Balagué. Y aunque este sistema “no es fiable al 100%”, Lionel Kaplan considera que las notas de contexto son eficaces.

Cree que permiten procesar un mayor volumen de información que el fact-checking, “engorroso de aplicar”. También apunta a un funcionamiento “democrático”, que permite “tener y confrontar diferentes puntos de vista”. X, sin embargo, es regularmente acusado de permitir que se difunda información errónea desde que Elon Musk redujo drásticamente los equipos de moderación.

Pero, según este experto, se debe sobre todo a que “X fomenta el radicalismo” y, en consecuencia, hace que la información falsa sea más visible que en otros lugares.

Meta indicó que los usuarios podrían empezar a inscribirse a partir del lunes para escribir notas cuando se ponga en marcha el programa, sin dar detalles sobre los criterios de participación.

La empresa también anunció que dará a los usuarios un mayor control sobre la cantidad de contenido político que desean ver en Facebook, Instagram o Threads.

Queda por ver si este sistema aumentará la difusión de información falsa. Según Kaplan, a Meta no le interesa necesariamente destacar contenidos controvertidos ya que podría disgustar a los anunciantes.

“Meta tiene que respetar normativa sobre moderación de contenidos”

La Comisión Europea tomó “nota” este martes de la decisión de la multinacional Meta de poder fin a su programa de verificación de datos con terceros en EE.UU., y le avisó de que en la Unión Europea rige la Ley de Servicios Digitales (DSA) y está obligada a cumplir con las obligaciones que marca.

“Tomamos nota del anuncio de Meta en relación con sus prácticas de moderación de contenidos en los EE.UU. No tenemos comentarios al respecto. La Ley de Servicios Digitales se aplica en la UE”, dijo a la agencia EFE el portavoz de la Comisión Europea de soberanía tecnológica, Thomas Regnier.

El director ejecutivo de Meta, Mark Zuckerberg, anunció hoy en un comunicado que el gigante tecnológico, que sostiene plataformas como Facebook, Instagram o Whatsapp, prescindirá de los verificadores acreditados a los que venía recurriendo en Estados Unidos y que los sustituirá por un sistema de apuntes de los usuarios similar al de la red X. Un cambio que, de momento, solo tendrá efecto en EE.UU.

"Seguimos supervisando el cumplimiento de las VLOP (las plataformas en línea más grandes) con sus obligaciones de la DSA en la UE", remarcó el portavoz del Ejecutivo comunitario.

En virtud de la DSA, "la colaboración con verificadores de datos independientes puede ser una forma eficaz para que las plataformas mitiguen los riesgos sistémicos derivados de sus servicios, respetando plenamente la libertad de expresión", señaló Regnier.

Y recordó que esto se aplica a riesgos como la difusión de desinformación o los efectos negativos en el discurso cívico y la integridad electoral.

Con base en la normativa comunitaria, "antes de implementar funcionalidades que puedan tener un impacto crítico en los riesgos sistémicos, las plataformas en línea de gran tamaño deben realizar una evaluación de riesgos y presentar un informe a los servicios de la Comisión", recordó el portavoz.

Y señaló además que Meta es signataria del Código de prácticas sobre desinformación, que contiene varios compromisos específicos sobre verificación de datos.

En particular, en lo que respecta a la cooperación con la comunidad de verificadores de datos y a la integración y el uso del trabajo de los verificadores de datos en los servicios pertinentes en toda la UE, remarcó Regnier.

Por Con información de agencias

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar