Usuarios con ideologías conservadoras, más expuestos a desinformación en Facebook
Un estudio realizado en Estados Unidos indica que los usuarios de las redes sociales políticamente conservadores están más segregados y encuentran más desinformación en Facebook.
Con información de agencias
El proyecto, llamado U.S. 2020 Facebook and Instagram Election Study, es el primero de este tipo y, para llevarlo a cabo, dieciséis académicos de universidades estadounidenses se asociaron con Meta (matriz de Facebook) para realizar una investigación independiente sobre lo que la gente ve en las redes sociales y cómo les afecta.
Las revistas Nature y Science publicaron varias investigaciones sobre el papel de las redes sociales en la democracia estadounidense y otra de ellas indica que, en el caso de Facebook, reducir la cantidad de contenido de fuentes políticamente “afines” que veían las personas no tuvo un efecto medible en sus creencias políticas.
Para llevar a cabo estas investigaciones -de las que se espera publicar un total de 16, tal y como ha anunciado Meta-, la compañía dirigida de Mark Zuckerberg ha colaborado con académicos externos y ajenos a la empresa, “libres de decidir qué análisis ejecutar” y teniendo “la última palabra sobre el contenido de los trabajos de investigación”, tal y como explica Science en un comunicado.
El citado estudio incorporó medidas como el registro previo de los experimentos y, además, Meta no podía restringir ni censurar los hallazgos y los autores principales tenían la última palabra sobre las decisiones de redacción e investigación.
Una de las investigaciones que publica Science, encabezada por Sandra González-Bailón, de la Universidad de Pensilvannia, abordó la cuestión de si Facebook permite la segregación ideológica en el consumo de noticias políticas.
El informe, según resume la revista, indica que los usuarios políticamente conservadores están "mucho más segregados y encuentran mucha más desinformación en la plataforma“
Los autores indican que Facebook "está sustancialmente segregado ideológicamente, mucho más de lo que han revelado anteriores investigaciones sobre el consumo de noticias en internet basadas en el comportamiento de navegación".
El equipo analizó la exposición a las noticias durante las elecciones estadounidenses de 2020 utilizando datos agregados de 208 millones de usuarios de esa red social. Así, analizaron todo el contenido que los usuarios podían ver potencialmente; el contenido que realmente veían en los feeds y con el que interactuaban a través de clics, compartir u otras reacciones.
Los investigadores han detallado que "la segregación ideológica es alta", y que aumenta a medida que se pasa de la exposición potencial a la exposición real y a la participación.
En comparación con los liberales, los autores descubrieron que los usuarios políticamente conservadores estaban mucho más aislados en sus fuentes de noticias y expuestos a mucha más desinformación.
Por ello, señalaron que existe una asimetría entre las audiencias conservadoras y liberales, con "un rincón sustancial del ecosistema de noticias consumido exclusivamente por los conservadores; y la mayor parte de la desinformación existe dentro de este rincón, que no tiene equivalente en el lado liberal".
Otro de los artículos, en este caso publicado en Nature, firmado por la Universidad de Dartmourth, indica que reducir en Facebook la cantidad de contenido de fuentes políticamente “afines” que veían las personas no tuvo un efecto medible en sus creencias políticas.
Estos resultados, según la publicación, desafían las opiniones sobre la medida en que las "cámaras de eco" de las redes sociales impulsan la polarización política.
La investigación midió, entre junio y septiembre de 2020, la exposición de los usuarios de Facebook en Estados Unidos a contenidos de fuentes políticamente afines, que los investigadores definen como aquellas del mismo lado político que el usuario.
Después, un grupo de 23.377 usuarios adultos participó en una reducción activa a la exposición a tales fuentes en aproximadamente un tercio durante tres meses, entre septiembre y diciembre, durante el clímax de las elecciones.
Los expertos hicieron encuestas para medir los cambios en las actitudes y creencias de los participantes y del grupo de control antes y después de esta intervención.
Las respuestas mostraron que la reducción de la exposición a fuentes afines no tuvo ningún efecto mensurable sobre la polarización, el extremismo ideológico, las evaluaciones de candidatos o la creencia en afirmaciones falsas, indica la publicación Nature.
Los autores aducen varias razones para estos resultados, como que la reducción de fuentes afines se compensó con un aumento de contenidos apolíticos o neutrales, en lugar de fuentes transversales, que podrían tener más probabilidades de provocar un cambio de opinión.
LA RESPUESTA DE META
La compañía tecnológica ha explicado, por su parte, que estos estudios “podrían ayudar a responder las cuestiones más espinosas sobre las redes sociales y al democracia”, como ha expresado el presidente de Asuntos Globales de Meta, Nick Clegg.
El directivo ha insistido en que estos análisis demuestran “que hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización afectiva dañina o tengan efectos significativos en actitudes, creencias o comportamientos políticos clave”.
Con ello, Clegg ha destacado que “cuando los participantes en los experimentos vieron una cantidad reducida de contenido de fuentes que reforzaban sus puntos de vista, en realidad era más probable que se involucraran con el contenido de ideas afines que vieron”, lo que tampoco “tuvo un impacto detectable en la polarización, las actitudes políticas o las creencias de los usuarios”.
Asimismo, ha matizado que, si bien la investigación publicada “no resolverá todos los debates sobre las redes sociales y la democracia”, espera que estos estudios “ayuden a la sociedad a comprender mejor estos temas”.
El proyecto, llamado U.S. 2020 Facebook and Instagram Election Study, es el primero de este tipo y, para llevarlo a cabo, dieciséis académicos de universidades estadounidenses se asociaron con Meta (matriz de Facebook) para realizar una investigación independiente sobre lo que la gente ve en las redes sociales y cómo les afecta.
Las revistas Nature y Science publicaron varias investigaciones sobre el papel de las redes sociales en la democracia estadounidense y otra de ellas indica que, en el caso de Facebook, reducir la cantidad de contenido de fuentes políticamente “afines” que veían las personas no tuvo un efecto medible en sus creencias políticas.
Para llevar a cabo estas investigaciones -de las que se espera publicar un total de 16, tal y como ha anunciado Meta-, la compañía dirigida de Mark Zuckerberg ha colaborado con académicos externos y ajenos a la empresa, “libres de decidir qué análisis ejecutar” y teniendo “la última palabra sobre el contenido de los trabajos de investigación”, tal y como explica Science en un comunicado.
El citado estudio incorporó medidas como el registro previo de los experimentos y, además, Meta no podía restringir ni censurar los hallazgos y los autores principales tenían la última palabra sobre las decisiones de redacción e investigación.
Una de las investigaciones que publica Science, encabezada por Sandra González-Bailón, de la Universidad de Pensilvannia, abordó la cuestión de si Facebook permite la segregación ideológica en el consumo de noticias políticas.
El informe, según resume la revista, indica que los usuarios políticamente conservadores están "mucho más segregados y encuentran mucha más desinformación en la plataforma“
Los autores indican que Facebook "está sustancialmente segregado ideológicamente, mucho más de lo que han revelado anteriores investigaciones sobre el consumo de noticias en internet basadas en el comportamiento de navegación".
El equipo analizó la exposición a las noticias durante las elecciones estadounidenses de 2020 utilizando datos agregados de 208 millones de usuarios de esa red social. Así, analizaron todo el contenido que los usuarios podían ver potencialmente; el contenido que realmente veían en los feeds y con el que interactuaban a través de clics, compartir u otras reacciones.
Los investigadores han detallado que "la segregación ideológica es alta", y que aumenta a medida que se pasa de la exposición potencial a la exposición real y a la participación.
En comparación con los liberales, los autores descubrieron que los usuarios políticamente conservadores estaban mucho más aislados en sus fuentes de noticias y expuestos a mucha más desinformación.
Por ello, señalaron que existe una asimetría entre las audiencias conservadoras y liberales, con "un rincón sustancial del ecosistema de noticias consumido exclusivamente por los conservadores; y la mayor parte de la desinformación existe dentro de este rincón, que no tiene equivalente en el lado liberal".
Otro de los artículos, en este caso publicado en Nature, firmado por la Universidad de Dartmourth, indica que reducir en Facebook la cantidad de contenido de fuentes políticamente “afines” que veían las personas no tuvo un efecto medible en sus creencias políticas.
Estos resultados, según la publicación, desafían las opiniones sobre la medida en que las "cámaras de eco" de las redes sociales impulsan la polarización política.
La investigación midió, entre junio y septiembre de 2020, la exposición de los usuarios de Facebook en Estados Unidos a contenidos de fuentes políticamente afines, que los investigadores definen como aquellas del mismo lado político que el usuario.
Después, un grupo de 23.377 usuarios adultos participó en una reducción activa a la exposición a tales fuentes en aproximadamente un tercio durante tres meses, entre septiembre y diciembre, durante el clímax de las elecciones.
Los expertos hicieron encuestas para medir los cambios en las actitudes y creencias de los participantes y del grupo de control antes y después de esta intervención.
Las respuestas mostraron que la reducción de la exposición a fuentes afines no tuvo ningún efecto mensurable sobre la polarización, el extremismo ideológico, las evaluaciones de candidatos o la creencia en afirmaciones falsas, indica la publicación Nature.
Los autores aducen varias razones para estos resultados, como que la reducción de fuentes afines se compensó con un aumento de contenidos apolíticos o neutrales, en lugar de fuentes transversales, que podrían tener más probabilidades de provocar un cambio de opinión.
LA RESPUESTA DE META
La compañía tecnológica ha explicado, por su parte, que estos estudios “podrían ayudar a responder las cuestiones más espinosas sobre las redes sociales y al democracia”, como ha expresado el presidente de Asuntos Globales de Meta, Nick Clegg.
El directivo ha insistido en que estos análisis demuestran “que hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización afectiva dañina o tengan efectos significativos en actitudes, creencias o comportamientos políticos clave”.
Con ello, Clegg ha destacado que “cuando los participantes en los experimentos vieron una cantidad reducida de contenido de fuentes que reforzaban sus puntos de vista, en realidad era más probable que se involucraran con el contenido de ideas afines que vieron”, lo que tampoco “tuvo un impacto detectable en la polarización, las actitudes políticas o las creencias de los usuarios”.
Asimismo, ha matizado que, si bien la investigación publicada “no resolverá todos los debates sobre las redes sociales y la democracia”, espera que estos estudios “ayuden a la sociedad a comprender mejor estos temas”.