Facebook-Meta y el futuro de internet
La compañía se encamina a construir la evolución de internet: el metaverso. Hoy está en el centro de un escándalo, cuyas soluciones técnicas y de política digital se ven complejas, cuando menos.
Santiago La Rotta
Esta semana bien puede pasar a la historia como una de las más importantes en la historia de Facebook. O bueno, de Meta, como se rebautizó la compañía el jueves.
Lo más inmediato es, claro, el cambio de nombre de la compañía, cuya nueva denominación (con identidad refrescada para las acciones en la bolsa también, MVRS) refleja las intenciones de Mark Zuckerberg (fundador de Facebook) de abrir camino hacia lo que, asegura, es el futuro de internet, y que para él se agrupa bajo el término “metaverso” (metaverso = Meta).
Claro, el momento para dar este salto resulta particular, cuando menos. La empresa se encuentra inmersa en su peor crisis reputacional y bajo el escrutinio más severo por, dicen sus críticos (y unos 10.000 documentos filtrados), alimentar la desinformación y el discurso del odio en línea. Estos cargos no son poca cosa, cuando se entiende que Facebook es la mayor red social del planeta (con más de 2.800 millones de usuarios) y que, además, quiere construir una versión del futuro de internet.
Lea también: Facebook cambia de nombre: ahora se llamará Meta
Lo que Zuckerberg propone es que Facebook trascienda sus propias barreras como red social y transite hacia una experiencia virtual, que está englobada en el término “metaverso”.
Para el ejecutivo, así como para otros, el metaverso bien puede representar la siguiente evolución en la forma como experimentamos e interactuamos a través de internet. En esta visión intervienen asuntos como la realidad virtual y aumentada, pero también herramientas tecnológicas que soportan el funcionamiento de criptomonedas, por ejemplo.
A la vez de pensar en el futuro, la empresa debe hacerle frente a su presente, pues sus líos actuales (que van desde asuntos de privacidad, pasando por transparencia y acciones para atacar la desinformación) no son solo un lastre, sino que pueden ser un peligro para la próxima evolución de internet.
Los problemas
La semana de Facebook arrancó con un costalado de malas noticias: un consorcio con más de doce medios internacionales publicó una serie de reportes, basada en unos 10.000 documentos filtrados por Frances Haugen, una exempleada de la compañía que estuvo el lunes ofreciendo testimonio en el parlamento británico, de la misma forma que lo hizo en el Congreso de Estados Unidos a principios de este mes. Los medios que conforman el consorcio incluyen a The New York Times, The Washington Post, The Atlantic, Wired y NBC, entre otros.
Lea también: Exempleada denuncia que Facebook incita al odio con fines lucrativos
Aunque los enfoques de cada publicación varían, hay un tema común: la empresa es consciente de los daños y males que su plataforma causa en la sociedad. Parafraseando una de las conclusiones de estas investigaciones: los algoritmos de Facebook causan polarización y la compañía tiene claro cuánto discurso de odio y desinformación hay en la plataforma. Pero no dice nada públicamente sobre eso.
Esto fue el lunes, tres días antes del anuncio del cambio de nombre y la presentación sobre cómo se ve el futuro desde Meta. Tres días, en tiempo de internet, es una pequeña eternidad.
Le puede interesar: Adiós Facebook, bienvenido Meta: ¿qué cambia, más allá del nombre?
Entre tanto, con los rumores del cambio de nombre en el camino, buena parte de la conversación giró alrededor de la utilidad, si no la conveniencia, de hacer un malabarismo de relaciones públicas en un momento tan delicado.
Claro, el cambio de nombre, además de un asunto de percepción del público, es toda una declaración de intenciones por parte de la compañía. Lo que no es poca cosa. Pero, a la vez, sus problemas actuales (que resuenan desde escándalos del pasado) tampoco lo son.
“Para la mayoría de las empresas, el objetivo es maximizar los beneficios. Sin controles significativos, ese impulso puede desbocarse, conduciendo a conductas poco éticas, abusivas y, eventualmente, ilegales. La historia de Facebook, con sus reincidencias a pesar de las multas récord, los decretos de consentimiento y las fuerzas del mercado, demuestran que estos simplemente no sirven”, dice Katharine Trendacosta, directora asociada de política y activismo en la Electronic Frontier Foundation (EFF), una de las mayores organizaciones de derechos digitales en el mundo.
“Controles significativos” puede ser un término problemático en este caso, no solo por la escala misma de Facebook-Meta, sino porque esto suele incluir acciones legislativas (bienintencionadas o no) que pueden terminar por enredar más la pita. Lastimosamente, los cuerpos legislativos, en general, no tienen un buen historial de lidiar con los problemas colaterales que van emergiendo del uso de la tecnología. En Colombia, por ejemplo, autoridades judiciales han pedido hasta la saciedad que se rompa el cifrado de las aplicaciones de mensajería, porque si no ellos no pueden hacer su trabajo. Esto, cuando menos, es una mezcla entre analfabetismo tecnológico y negligencia. Pero bueno, eso es harina de otro costal.
Lea también: ¿Qué es el metaverso y por qué Facebook le apuesta a esta visión tecnológica?
La idea de regular el espectro de las redes sociales o de las llamadas big tech (que en algunos casos son un mismo grupo) es un asunto complejo por el campo de acción de estas compañías. Uno de los primeros gritos de guerra en este escenario es de la moderación-regulación del contenido.
Durante la semana, varios legisladores de EE. UU., así como otros opinadores de tiempo completo, pidieron regulaciones centrales sobre el contenido que circula en Facebook-Meta. La idea acá es que si la desinformación es un problema, pues bueno, lo mejor es meterle mano al flujo de la información.
Lo cierto es que, lejos del facilismo de análisis en 140 caracteres, la moderación de contenido es uno de los grandes abismos en el espectro de la red actual, sencillamente porque una talla no les sirve a todos: no hay una bala de plata aquí. Moderar contenido a escala global es prácticamente imposible, en buena parte porque unas pocas personas se ponen de acuerdo para definir qué es discurso de odio y qué no lo es: si se limita a asuntos raciales, de género, religión u otras categorías que típicamente han estado sometidas a prácticas de odio, si incluye todas las formas de acoso y matoneo o si solo aplica cuando se ejerce desde una posición de poder en contra de quienes no lo han tenido.
“Estos problemas de definición, que suelen enredar a autoridades judiciales en todo el mundo, también impactan el trabajo de las plataformas en línea. Como resultado de estos debates y controversias, los esfuerzos para remover el discurso de odio suelen hacerse a expensas de la libertad de expresión”, escribieron Jillian York y David Greene en un informe de la EFF.
Entonces, si no es (solo) a través de la moderación de contenido, ¿por dónde más se puede empezar a solucionar el caso Facebook-Meta?
Lea también: Cómo Facebook casi provoca una guerra civil
Laura Edelson, candidata al doctorado en Ciencias de la Computación de la Universidad de Nueva York, ha investigado la difusión de desinformación en Facebook y tiene algunas ideas al respecto. La investigadora (cuyo acceso a los datos de Facebook fue cortado en agosto de este año por la propia plataforma) habla de transparencia en varios aspectos: datos públicos, información sensible y algoritmos. Sobre esto último escribe: “Cuado uno lee sobre los Facebook Papers, resulta claro que el algoritmo encargado de promocionar contenido es el problema. Los usuarios merecen saber por qué el contenido es promovido en la plataforma. Y si bien estos algoritmos están en constante flujo, es completamente razonable pedirles a estas plataformas que reporten con regularidad cuáles son los factores más importantes que contribuyen a la toma de decisiones por parte de estas herramientas”.
Edelson también se refiere a un aspecto clave: la confianza. Y por eso propone auditorías para este tipo de plataformas. “Facebook ha perdido toda la confianza que tenía del público o de los reguladores. Nada de esto funcionará si no se auditan los datos y los algoritmos que la compañía entregue, para asegurarse de que están completos y son acertados. Auditamos a los bancos, ¿por qué no podríamos hacerlo con las redes sociales?”. Y concluye: “Claro, nada de esto es una solución final. Pero creo que el peligro real es recetar soluciones que no están soportadas en datos sólidos. Y pues es información que no tenemos aún”.
Hasta aquí se habla desde el lado de las acciones en tecnología. Pero desde la esquina de la política digital también hay camino por avanzar, principalmente en el tamaño (según algunos) monopolístico de varias de la llamadas big tech, incluyendo a Facebook-Meta.
“Si establecemos las rupturas como una posibilidad seria que las empresas deben considerar, podemos disciplinarlas, de modo que se vigilen mejor a sí mismas, y podemos abrir un espacio para soluciones reguladoras más creativas. Y si eso no tiene éxito, podemos disolverlas, creando más competencia que discipline su comportamiento”, argumenta Trendacosta, de EFF.
A esto se suma Cory Doctorow al explicar que “la tecnología y la aplicación laxa de políticas antimonopolio crecieron juntas. Durante cuarenta años hemos vivido a través de dos experimentos entrelazados: internet y su principio fundacional de que cualquiera puede hablar con cualquiera utilizando cualquier protocolo sin el permiso de nadie; y el estándar de bienestar del consumidor, cuya piedra fundamental es que los monopolios no son malos a menos de que haya incremento de precios”.
Con todo, la visión del futuro de la tecnología que tiene Facebook, y en general cualquier big tech, dependerá en gran medida de que solucione sus problemas actuales. Por el bien de los usuarios, no se trata de aplacar los escándalos, sino de construir experiencias tecnológicas que tengan sentido humano, no solo financiero.
Esta semana bien puede pasar a la historia como una de las más importantes en la historia de Facebook. O bueno, de Meta, como se rebautizó la compañía el jueves.
Lo más inmediato es, claro, el cambio de nombre de la compañía, cuya nueva denominación (con identidad refrescada para las acciones en la bolsa también, MVRS) refleja las intenciones de Mark Zuckerberg (fundador de Facebook) de abrir camino hacia lo que, asegura, es el futuro de internet, y que para él se agrupa bajo el término “metaverso” (metaverso = Meta).
Claro, el momento para dar este salto resulta particular, cuando menos. La empresa se encuentra inmersa en su peor crisis reputacional y bajo el escrutinio más severo por, dicen sus críticos (y unos 10.000 documentos filtrados), alimentar la desinformación y el discurso del odio en línea. Estos cargos no son poca cosa, cuando se entiende que Facebook es la mayor red social del planeta (con más de 2.800 millones de usuarios) y que, además, quiere construir una versión del futuro de internet.
Lea también: Facebook cambia de nombre: ahora se llamará Meta
Lo que Zuckerberg propone es que Facebook trascienda sus propias barreras como red social y transite hacia una experiencia virtual, que está englobada en el término “metaverso”.
Para el ejecutivo, así como para otros, el metaverso bien puede representar la siguiente evolución en la forma como experimentamos e interactuamos a través de internet. En esta visión intervienen asuntos como la realidad virtual y aumentada, pero también herramientas tecnológicas que soportan el funcionamiento de criptomonedas, por ejemplo.
A la vez de pensar en el futuro, la empresa debe hacerle frente a su presente, pues sus líos actuales (que van desde asuntos de privacidad, pasando por transparencia y acciones para atacar la desinformación) no son solo un lastre, sino que pueden ser un peligro para la próxima evolución de internet.
Los problemas
La semana de Facebook arrancó con un costalado de malas noticias: un consorcio con más de doce medios internacionales publicó una serie de reportes, basada en unos 10.000 documentos filtrados por Frances Haugen, una exempleada de la compañía que estuvo el lunes ofreciendo testimonio en el parlamento británico, de la misma forma que lo hizo en el Congreso de Estados Unidos a principios de este mes. Los medios que conforman el consorcio incluyen a The New York Times, The Washington Post, The Atlantic, Wired y NBC, entre otros.
Lea también: Exempleada denuncia que Facebook incita al odio con fines lucrativos
Aunque los enfoques de cada publicación varían, hay un tema común: la empresa es consciente de los daños y males que su plataforma causa en la sociedad. Parafraseando una de las conclusiones de estas investigaciones: los algoritmos de Facebook causan polarización y la compañía tiene claro cuánto discurso de odio y desinformación hay en la plataforma. Pero no dice nada públicamente sobre eso.
Esto fue el lunes, tres días antes del anuncio del cambio de nombre y la presentación sobre cómo se ve el futuro desde Meta. Tres días, en tiempo de internet, es una pequeña eternidad.
Le puede interesar: Adiós Facebook, bienvenido Meta: ¿qué cambia, más allá del nombre?
Entre tanto, con los rumores del cambio de nombre en el camino, buena parte de la conversación giró alrededor de la utilidad, si no la conveniencia, de hacer un malabarismo de relaciones públicas en un momento tan delicado.
Claro, el cambio de nombre, además de un asunto de percepción del público, es toda una declaración de intenciones por parte de la compañía. Lo que no es poca cosa. Pero, a la vez, sus problemas actuales (que resuenan desde escándalos del pasado) tampoco lo son.
“Para la mayoría de las empresas, el objetivo es maximizar los beneficios. Sin controles significativos, ese impulso puede desbocarse, conduciendo a conductas poco éticas, abusivas y, eventualmente, ilegales. La historia de Facebook, con sus reincidencias a pesar de las multas récord, los decretos de consentimiento y las fuerzas del mercado, demuestran que estos simplemente no sirven”, dice Katharine Trendacosta, directora asociada de política y activismo en la Electronic Frontier Foundation (EFF), una de las mayores organizaciones de derechos digitales en el mundo.
“Controles significativos” puede ser un término problemático en este caso, no solo por la escala misma de Facebook-Meta, sino porque esto suele incluir acciones legislativas (bienintencionadas o no) que pueden terminar por enredar más la pita. Lastimosamente, los cuerpos legislativos, en general, no tienen un buen historial de lidiar con los problemas colaterales que van emergiendo del uso de la tecnología. En Colombia, por ejemplo, autoridades judiciales han pedido hasta la saciedad que se rompa el cifrado de las aplicaciones de mensajería, porque si no ellos no pueden hacer su trabajo. Esto, cuando menos, es una mezcla entre analfabetismo tecnológico y negligencia. Pero bueno, eso es harina de otro costal.
Lea también: ¿Qué es el metaverso y por qué Facebook le apuesta a esta visión tecnológica?
La idea de regular el espectro de las redes sociales o de las llamadas big tech (que en algunos casos son un mismo grupo) es un asunto complejo por el campo de acción de estas compañías. Uno de los primeros gritos de guerra en este escenario es de la moderación-regulación del contenido.
Durante la semana, varios legisladores de EE. UU., así como otros opinadores de tiempo completo, pidieron regulaciones centrales sobre el contenido que circula en Facebook-Meta. La idea acá es que si la desinformación es un problema, pues bueno, lo mejor es meterle mano al flujo de la información.
Lo cierto es que, lejos del facilismo de análisis en 140 caracteres, la moderación de contenido es uno de los grandes abismos en el espectro de la red actual, sencillamente porque una talla no les sirve a todos: no hay una bala de plata aquí. Moderar contenido a escala global es prácticamente imposible, en buena parte porque unas pocas personas se ponen de acuerdo para definir qué es discurso de odio y qué no lo es: si se limita a asuntos raciales, de género, religión u otras categorías que típicamente han estado sometidas a prácticas de odio, si incluye todas las formas de acoso y matoneo o si solo aplica cuando se ejerce desde una posición de poder en contra de quienes no lo han tenido.
“Estos problemas de definición, que suelen enredar a autoridades judiciales en todo el mundo, también impactan el trabajo de las plataformas en línea. Como resultado de estos debates y controversias, los esfuerzos para remover el discurso de odio suelen hacerse a expensas de la libertad de expresión”, escribieron Jillian York y David Greene en un informe de la EFF.
Entonces, si no es (solo) a través de la moderación de contenido, ¿por dónde más se puede empezar a solucionar el caso Facebook-Meta?
Lea también: Cómo Facebook casi provoca una guerra civil
Laura Edelson, candidata al doctorado en Ciencias de la Computación de la Universidad de Nueva York, ha investigado la difusión de desinformación en Facebook y tiene algunas ideas al respecto. La investigadora (cuyo acceso a los datos de Facebook fue cortado en agosto de este año por la propia plataforma) habla de transparencia en varios aspectos: datos públicos, información sensible y algoritmos. Sobre esto último escribe: “Cuado uno lee sobre los Facebook Papers, resulta claro que el algoritmo encargado de promocionar contenido es el problema. Los usuarios merecen saber por qué el contenido es promovido en la plataforma. Y si bien estos algoritmos están en constante flujo, es completamente razonable pedirles a estas plataformas que reporten con regularidad cuáles son los factores más importantes que contribuyen a la toma de decisiones por parte de estas herramientas”.
Edelson también se refiere a un aspecto clave: la confianza. Y por eso propone auditorías para este tipo de plataformas. “Facebook ha perdido toda la confianza que tenía del público o de los reguladores. Nada de esto funcionará si no se auditan los datos y los algoritmos que la compañía entregue, para asegurarse de que están completos y son acertados. Auditamos a los bancos, ¿por qué no podríamos hacerlo con las redes sociales?”. Y concluye: “Claro, nada de esto es una solución final. Pero creo que el peligro real es recetar soluciones que no están soportadas en datos sólidos. Y pues es información que no tenemos aún”.
Hasta aquí se habla desde el lado de las acciones en tecnología. Pero desde la esquina de la política digital también hay camino por avanzar, principalmente en el tamaño (según algunos) monopolístico de varias de la llamadas big tech, incluyendo a Facebook-Meta.
“Si establecemos las rupturas como una posibilidad seria que las empresas deben considerar, podemos disciplinarlas, de modo que se vigilen mejor a sí mismas, y podemos abrir un espacio para soluciones reguladoras más creativas. Y si eso no tiene éxito, podemos disolverlas, creando más competencia que discipline su comportamiento”, argumenta Trendacosta, de EFF.
A esto se suma Cory Doctorow al explicar que “la tecnología y la aplicación laxa de políticas antimonopolio crecieron juntas. Durante cuarenta años hemos vivido a través de dos experimentos entrelazados: internet y su principio fundacional de que cualquiera puede hablar con cualquiera utilizando cualquier protocolo sin el permiso de nadie; y el estándar de bienestar del consumidor, cuya piedra fundamental es que los monopolios no son malos a menos de que haya incremento de precios”.
Con todo, la visión del futuro de la tecnología que tiene Facebook, y en general cualquier big tech, dependerá en gran medida de que solucione sus problemas actuales. Por el bien de los usuarios, no se trata de aplacar los escándalos, sino de construir experiencias tecnológicas que tengan sentido humano, no solo financiero.