Los países de habla no inglesa deberían temerle a Facebook: las 7 claves de Haugen
La denunciante Frances Haugen, exempleada de la empresa fundada por Mark Zuckeberg, hizo explosivas declaraciones sobre las prácticas de la red social que todo el mundo debería escuchar.
Frances Haugen, exgerente de producto de Facebook, se desenmascaró a principios de octubre ante el mundo. Ella es la responsable de una filtración masiva de documentos de la empresa que han confirmado lo que muchos expertos en tecnología temían y advertían desde hace años: Facebook no piensa en la sociedad, sólo en cómo crecer para hacer más dinero.
El pasado lunes, mientras un conglomerado de medios estadounidenses empezaba a publicar extensos y profundos reportajes sobre el lado oscuro de esta red social a partir de los papeles que les pasó Haugen, la denunciante rindió testimonio ante el Parlamento Británico durante dos horas y media para expresar su preocupación por lo que hace su exempleador en el mundo, no sin antes resaltar que lo único que quería era volver de la empresa un mejor lugar.
Lo que Haguen dijo el lunes es clave para entender el entramado de la compañía y cómo sus prácticas nos afectan. Estas son algunas claves de su testimonio.
Los países de habla no inglesa deberían temer
“Estoy profundamente preocupada por su falta de inversión en idiomas distintos del inglés y cómo engañan al público diciéndoles que los están apoyando. Entonces, Facebook dice cosas como ‘apoyamos a 50 idiomas’, cuando en realidad la mayoría de esos idiomas obtienen una pequeña fracción de los sistemas de seguridad que recibe el inglés”, dijo Haguen.
Una de las principales advertencias de la denunciante es sobre la poca inversión que hace Facebook en materia de seguridad en países de habla no inglesa. La empresa no se asegura de comprender las ofensas en la jerga local de países como Etiopía, donde hay seis idiomas principales. Esto hace que sea mucho más difícil para la plataforma asegurarse de que los usuarios se encuentran a salvo de discursos de odio.
Hay varios ejemplos que podemos citar: la violencia religiosa que está despertando la plataforma en la India o la polarización que se está generando en Brasil de cara a las elecciones de 2022. En los países de habla no inglesa, las sociedades deberían tener más cuidado, pues hay poca regulación en la red para evitar la violencia.
“Nuestra capacidad para detectar comentarios que dudan de las vacunas es mala en inglés y básicamente no existe en otros lugares”, destaca la informante sobre la vacunación.
Inquietud sobre el ‘metaverso’
Por otro lado, Facebook ha mostrado sus intenciones de construir un ‘metaverso’, un espacio que convergerá entre lo físico con lo virtual y que busca unir comunicaciones, ventas y juegos en un solo lugar. Sobre este espacio no se han dado más detalles, pero lo que Haugen supo es que se piensan contratar 10.000 ingenieros en Europa para su elaboración.
“Estaba sorprendida. ¿Sabes lo que podríamos haber hecho con la seguridad si tuviéramos 10.000 ingenieros más? Sería increíble”, dijo la denunciante.
Facebook está aislando a las personas
“Me preocupa profundamente que hayan creado un producto que puede alejar a las personas de sus comunidades reales y aislarlas en estos agujeros de conejo y estas burbujas de filtro. Lo que encuentras es que cuando las personas reciben información dirigida a una comunidad, puede dificultar la reintegración a la sociedad en general porque ahora no tienes datos compartidos”, dice Haugen.
Los documentos que proporcionó Haugen nos mostraron lo dañino que es el algoritmo de Facebook para la integración de comunidades. Una vez creado un perfil, la plataforma bombardea a los usuarios con sugerencias de grupos que promueven teorías de conspiración o noticias falsas que alimentan el odio. Una persona en situación de vulnerabilidad puede no escapar de estos grupos, donde solo se busca reafirmar las visiones que ya se comparten en él. La investigación llamada El viaje de Carol a QAnon da cuenta de cómo funciona este algoritmo.
📄 Le recomendamos: El ojo de un huracán llamado Facebook
Los ejecutivos de Facebook no quieren cambiar nada
“No hay voluntad en la parte superior para asegurarse de que estos sistemas se ejecuten de una manera suficientemente segura. Hasta que no incorporemos un contrapeso, estas cosas se operarán para el interés de los accionistas y no para el interés público”, resaltó la denunciante.
Esto lo aprendimos con la experiencia de la toma al Capitolio de los Estados Unidos. Para hacerles frente a las quejas por el aumento de la desinformación y los discursos de odio en su plataforma, Facebook creó un grupo de “Integridad cívica”, que buscaba rutas para luchar contra el contenido peligroso para los usuarios. Sus integrantes eran experimentados empleados que reconocían la magnitud del problema y que hicieron un juramento formal en el que prometían servir a los intereses de la gente antes de los de la compañía. Pero cuando los ejecutivos de esta vieron que dicho equipo de verdad antepuso a las personas antes que el crecimiento de Facebook, lo desmantelaron.
La desmantelación del grupo de “Integridad cívica”, del cual era parte Haugen, se dio pocas semanas después de las elecciones generales de EE. UU. de 2020. Paralelo a esto, Facebook se apresuró a levantar las medidas sugeridas por este equipo que ayudaban a suprimir la información falsa que circulaba en la red antes y durante las elecciones. Esto incidió en que durante las semanas previas al asalto circulara una gran cantidad de teorías de conspiración en la plataforma sin ningún control, lo que contribuyó a la polarización política y alimentó las intenciones de los seguidores de Donald Trump de hacer cualquier cosa para instalar a su líder en el poder. Y sin el equipo que tenía más conocimiento sobre cómo hacer frente a estas circunstancias, la plataforma perdió todas las herramientas para mantener el control el 6 de enero, día del asalto.
Así que Facebook no solo creó un problema, sino que hizo de todo para evitar la solución a este.
🌎 Le recomendamos: Cómo Facebook casi provoca una guerra civil
Que no se atrevan a usar a los niños: el odio se lleva a casa
“Estoy profundamente preocupada de que no sea posible hacer que Instagram sea seguro para un niño de 14 años y sinceramente dudo que sea posible hacerlo seguro para un niño de 10 años”, advirtió Haugen.
Facebook ha mostrado sus intenciones de crear una aplicación llamada Instagram Kids, con la intención de abrirse paso en la audiencia infantil que no tiene los 13 años requeridos para abrir una cuenta en Instagram. Haugen advierte que esto es un peligro. Hay informes internos que demuestran que, por ejemplo, la aplicación Instagram hizo que el 32 % de los adolescentes se sintieran peor con sus cuerpos, por ejemplo. Ser usuario de estas redes representa un impacto negativo en la salud mental. Sin embargo, los ejecutivos han querido hacerse los de la vista gorda ante estos reportes y, peor aún, han tratado de disuadir a los empleados que quieren cambiar las cosas.
“Instagram se trata de comparaciones sociales y de cuerpos, de estilos de vida de las personas, y eso acaba siendo peor para los niños. La vida de la escuela secundaria es diferente a la mediada por Instagram. Los chicos pueden desconectarse de las escuelas, pero ahora el bullying te sigue a casa. Lo último que leen es alguien siendo cruel y lo primero que leen en la mañana es un comentario de odio. No hay un momento de paz”, declaró la informante.
Facebook ha mentido
“Este es un momento definitivo para la Junta de Supervisión (de Facebook). Hay una gran oportunidad para revisar cuál es la relación que quiere llevar a cabo con Facebook. Espero que tome este momento para dar un paso adelante y exigir más transparencia. La pregunta que deben estar haciendo es: ¿Por qué se les permitió a Facebook mentirles de esta manera? Si Facebook engañó a la Junta, no sé cuál es su propósito para supervisar”, declaró Haugen.
📄 Vea también: El dilema de Facebook y su fea realidad
Los documentos, que Haugen proporcionó a la Comisión de Bolsa y Valores de Estados Unidos, muestran que Facebook ocultó a los inversores y al público sus propias investigaciones sobre los daños que causaría a la sociedad, y que engañó a la comisión que los supervisa para seguir adelante.
Peligro de un genocidio
“Realmente creo que hay muchas vidas en juego, que Myanmar y Etiopía son el capítulo inicial”, lamenta Haugen.
En 2018, Naciones Unidas criticó el papel de la red social en la crisis de Myanmar, reconociendo que la red alimentó el derramamiento de sangre contra los rohingyas. En 2019, la empresa también fue blando frente a los grupos armados de Etiopía que usaron la plataforma para incitar a la violencia contra las minorías étnicas en un “contexto de guerra civil”.
El papel de Facebook en el asalto al Capitolio también es destacado: no solo se volvió la herramienta de coordinación de extremistas para los disturbios, sino que su algoritmo sirvió para amplificar sus ideas y darles una sensación de respaldo. Las estrategias de Facebook para mitigar la violencia o incluso una guerra civil “no son suficientes”, dice Haugen. La empresa representa un peligro para la sociedad.
👀🌎📄 ¿Ya estás enterado de las últimas noticias en el mundo? Te invitamos a verlas en El Espectador.
Frances Haugen, exgerente de producto de Facebook, se desenmascaró a principios de octubre ante el mundo. Ella es la responsable de una filtración masiva de documentos de la empresa que han confirmado lo que muchos expertos en tecnología temían y advertían desde hace años: Facebook no piensa en la sociedad, sólo en cómo crecer para hacer más dinero.
El pasado lunes, mientras un conglomerado de medios estadounidenses empezaba a publicar extensos y profundos reportajes sobre el lado oscuro de esta red social a partir de los papeles que les pasó Haugen, la denunciante rindió testimonio ante el Parlamento Británico durante dos horas y media para expresar su preocupación por lo que hace su exempleador en el mundo, no sin antes resaltar que lo único que quería era volver de la empresa un mejor lugar.
Lo que Haguen dijo el lunes es clave para entender el entramado de la compañía y cómo sus prácticas nos afectan. Estas son algunas claves de su testimonio.
Los países de habla no inglesa deberían temer
“Estoy profundamente preocupada por su falta de inversión en idiomas distintos del inglés y cómo engañan al público diciéndoles que los están apoyando. Entonces, Facebook dice cosas como ‘apoyamos a 50 idiomas’, cuando en realidad la mayoría de esos idiomas obtienen una pequeña fracción de los sistemas de seguridad que recibe el inglés”, dijo Haguen.
Una de las principales advertencias de la denunciante es sobre la poca inversión que hace Facebook en materia de seguridad en países de habla no inglesa. La empresa no se asegura de comprender las ofensas en la jerga local de países como Etiopía, donde hay seis idiomas principales. Esto hace que sea mucho más difícil para la plataforma asegurarse de que los usuarios se encuentran a salvo de discursos de odio.
Hay varios ejemplos que podemos citar: la violencia religiosa que está despertando la plataforma en la India o la polarización que se está generando en Brasil de cara a las elecciones de 2022. En los países de habla no inglesa, las sociedades deberían tener más cuidado, pues hay poca regulación en la red para evitar la violencia.
“Nuestra capacidad para detectar comentarios que dudan de las vacunas es mala en inglés y básicamente no existe en otros lugares”, destaca la informante sobre la vacunación.
Inquietud sobre el ‘metaverso’
Por otro lado, Facebook ha mostrado sus intenciones de construir un ‘metaverso’, un espacio que convergerá entre lo físico con lo virtual y que busca unir comunicaciones, ventas y juegos en un solo lugar. Sobre este espacio no se han dado más detalles, pero lo que Haugen supo es que se piensan contratar 10.000 ingenieros en Europa para su elaboración.
“Estaba sorprendida. ¿Sabes lo que podríamos haber hecho con la seguridad si tuviéramos 10.000 ingenieros más? Sería increíble”, dijo la denunciante.
Facebook está aislando a las personas
“Me preocupa profundamente que hayan creado un producto que puede alejar a las personas de sus comunidades reales y aislarlas en estos agujeros de conejo y estas burbujas de filtro. Lo que encuentras es que cuando las personas reciben información dirigida a una comunidad, puede dificultar la reintegración a la sociedad en general porque ahora no tienes datos compartidos”, dice Haugen.
Los documentos que proporcionó Haugen nos mostraron lo dañino que es el algoritmo de Facebook para la integración de comunidades. Una vez creado un perfil, la plataforma bombardea a los usuarios con sugerencias de grupos que promueven teorías de conspiración o noticias falsas que alimentan el odio. Una persona en situación de vulnerabilidad puede no escapar de estos grupos, donde solo se busca reafirmar las visiones que ya se comparten en él. La investigación llamada El viaje de Carol a QAnon da cuenta de cómo funciona este algoritmo.
📄 Le recomendamos: El ojo de un huracán llamado Facebook
Los ejecutivos de Facebook no quieren cambiar nada
“No hay voluntad en la parte superior para asegurarse de que estos sistemas se ejecuten de una manera suficientemente segura. Hasta que no incorporemos un contrapeso, estas cosas se operarán para el interés de los accionistas y no para el interés público”, resaltó la denunciante.
Esto lo aprendimos con la experiencia de la toma al Capitolio de los Estados Unidos. Para hacerles frente a las quejas por el aumento de la desinformación y los discursos de odio en su plataforma, Facebook creó un grupo de “Integridad cívica”, que buscaba rutas para luchar contra el contenido peligroso para los usuarios. Sus integrantes eran experimentados empleados que reconocían la magnitud del problema y que hicieron un juramento formal en el que prometían servir a los intereses de la gente antes de los de la compañía. Pero cuando los ejecutivos de esta vieron que dicho equipo de verdad antepuso a las personas antes que el crecimiento de Facebook, lo desmantelaron.
La desmantelación del grupo de “Integridad cívica”, del cual era parte Haugen, se dio pocas semanas después de las elecciones generales de EE. UU. de 2020. Paralelo a esto, Facebook se apresuró a levantar las medidas sugeridas por este equipo que ayudaban a suprimir la información falsa que circulaba en la red antes y durante las elecciones. Esto incidió en que durante las semanas previas al asalto circulara una gran cantidad de teorías de conspiración en la plataforma sin ningún control, lo que contribuyó a la polarización política y alimentó las intenciones de los seguidores de Donald Trump de hacer cualquier cosa para instalar a su líder en el poder. Y sin el equipo que tenía más conocimiento sobre cómo hacer frente a estas circunstancias, la plataforma perdió todas las herramientas para mantener el control el 6 de enero, día del asalto.
Así que Facebook no solo creó un problema, sino que hizo de todo para evitar la solución a este.
🌎 Le recomendamos: Cómo Facebook casi provoca una guerra civil
Que no se atrevan a usar a los niños: el odio se lleva a casa
“Estoy profundamente preocupada de que no sea posible hacer que Instagram sea seguro para un niño de 14 años y sinceramente dudo que sea posible hacerlo seguro para un niño de 10 años”, advirtió Haugen.
Facebook ha mostrado sus intenciones de crear una aplicación llamada Instagram Kids, con la intención de abrirse paso en la audiencia infantil que no tiene los 13 años requeridos para abrir una cuenta en Instagram. Haugen advierte que esto es un peligro. Hay informes internos que demuestran que, por ejemplo, la aplicación Instagram hizo que el 32 % de los adolescentes se sintieran peor con sus cuerpos, por ejemplo. Ser usuario de estas redes representa un impacto negativo en la salud mental. Sin embargo, los ejecutivos han querido hacerse los de la vista gorda ante estos reportes y, peor aún, han tratado de disuadir a los empleados que quieren cambiar las cosas.
“Instagram se trata de comparaciones sociales y de cuerpos, de estilos de vida de las personas, y eso acaba siendo peor para los niños. La vida de la escuela secundaria es diferente a la mediada por Instagram. Los chicos pueden desconectarse de las escuelas, pero ahora el bullying te sigue a casa. Lo último que leen es alguien siendo cruel y lo primero que leen en la mañana es un comentario de odio. No hay un momento de paz”, declaró la informante.
Facebook ha mentido
“Este es un momento definitivo para la Junta de Supervisión (de Facebook). Hay una gran oportunidad para revisar cuál es la relación que quiere llevar a cabo con Facebook. Espero que tome este momento para dar un paso adelante y exigir más transparencia. La pregunta que deben estar haciendo es: ¿Por qué se les permitió a Facebook mentirles de esta manera? Si Facebook engañó a la Junta, no sé cuál es su propósito para supervisar”, declaró Haugen.
📄 Vea también: El dilema de Facebook y su fea realidad
Los documentos, que Haugen proporcionó a la Comisión de Bolsa y Valores de Estados Unidos, muestran que Facebook ocultó a los inversores y al público sus propias investigaciones sobre los daños que causaría a la sociedad, y que engañó a la comisión que los supervisa para seguir adelante.
Peligro de un genocidio
“Realmente creo que hay muchas vidas en juego, que Myanmar y Etiopía son el capítulo inicial”, lamenta Haugen.
En 2018, Naciones Unidas criticó el papel de la red social en la crisis de Myanmar, reconociendo que la red alimentó el derramamiento de sangre contra los rohingyas. En 2019, la empresa también fue blando frente a los grupos armados de Etiopía que usaron la plataforma para incitar a la violencia contra las minorías étnicas en un “contexto de guerra civil”.
El papel de Facebook en el asalto al Capitolio también es destacado: no solo se volvió la herramienta de coordinación de extremistas para los disturbios, sino que su algoritmo sirvió para amplificar sus ideas y darles una sensación de respaldo. Las estrategias de Facebook para mitigar la violencia o incluso una guerra civil “no son suficientes”, dice Haugen. La empresa representa un peligro para la sociedad.
👀🌎📄 ¿Ya estás enterado de las últimas noticias en el mundo? Te invitamos a verlas en El Espectador.