¿Las máquinas pueden asegurar el futuro de Facebook?

La compañía tiene claro que es el momento de que la inteligencia artificial regule la interacción entre las personas. No sólo por su número de usuarios, que hoy supera los 2.000 millones, sino por la cantidad de amenazas y la necesidad de mayor seguridad en la plataforma.

Nicolas Marín / California*
06 de mayo de 2018 - 02:00 a. m.
 Durante el evento se presentaron los avances en seguridad. / AFP
Durante el evento se presentaron los avances en seguridad. / AFP
Foto: AFP - JUSTIN SULLIVAN
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

El futuro de Facebook, y buena parte de su presente, está en la inteligencia artificial (IA). Esta es una de las grandes conclusiones que dejó el F8, el evento más importante que anualmente organiza la compañía en donde presentó nuevos servicios, herramientas y funciones, todas orientadas hacia esta tecnología.

La inteligencia artificial atraviesa casi todas las áreas de interés de la compañía, desde la seguridad en la plataforma hasta la realidad virtual y aumentada. Y esta visión tiene sus méritos y argumentos a favor, pero también presenta algunos peligros y falencias.

Con el escándalo de Cambridge Analytica, en el que se reveló el potencial político de una plataforma que a simple vista busca “conectar a las personas”’, parece que el ser humano hubiera decidido cederles el mando a las máquinas para intentar regular la interacción de los 2.000 millones de usuarios de la red social.

(En contexto: Facebook busca pasar la página del escándalo de Cambridge Analytica con nuevos productos)

“Cometemos errores que tienen consecuencias y que debemos solucionar. Para eso estamos acá”, advirtió el fundador de Facebook, Mark Zuckerberg durante el discurso inaugural del evento, que se extendió por dos días, en los que la conversación estuvo dominada por la mención y una cierta fe en los alcances y las promesas de la inteligencia artificial. Lo cierto es que no es una estrategia novedosa, pero la escala en la que Facebook puede implementarla sí se adentra en terreno inexplorado. En últimas, por eso es noticia.

Y se entiende por qué una empresa como Facebook busca navegar estas aguas. La inteligencia artificial opera mejor en la medida en la que se alienta de vastas cantidades de datos. No es coincidencia que algunas de las compañías de tecnología más populares lideren en sistemas inteligentes, en reconocimiento de imágenes, traducción automatizada de texto o incluso en juegos de mesa como Go.

Durante su intervención en el Congreso de Estados Unidos, Zuckerberg defendió la utilización de inteligencia artificial como la mejor herramienta para solucionar varios de los problemas del sistema y asegurar la información de los usuarios. Aunque algunas medidas y herramientas anunciadas durante el F8 pueden tener profundos impactos atacando estos problemas, los críticos de la compañía también han dicho, con cierta razón, que este camino es una ruta más dentro de la política de autorregulación de las empresas de tecnología; bajo este marco fueron posibles las acciones de Cambridge Analytica.

(Lea: Facebook lanzará aplicación de citas online)

El reto del sistema inteligente que ha desarrollado Facebook toca varios planos y problemas de la plataforma. El primero es combatir las cuentas falsas y el spam. Mike Schroepfer, encargado técnico de la compañía (CTO), aseguró en una entrevista con varios medios latinoamericanos, entre ellos El Espectador, que “el poder de la inteligencia artificial radica en la velocidad y la escala a la cual puede operar. Tenemos mejor clasificación de imágenes y lo que pretendemos es identificar a esas personas que suben contenidos no autorizados en la plataforma. Nuestro sistema es muy rápido, cada vez que alguien intenta hacer algo inapropiado lo capturamos inmediatamente”.

Uno de los anuncios de Facebook fue el avance del modelo que se utiliza para detectar contenidos ofensivos y positivos a través de la clasificación de imágenes. Sólo en 2018, por ejemplo, se eliminaron casi dos millones de publicaciones relacionadas con ISIS. Suena tan esperanzador como riesgoso, teniendo en cuenta la enorme responsabilidad que se les está dando a los sistemas inteligentes para filtrar contenido algo que, en esencia, es sopesar derechos fundamentales como la libertad de expresión. Pero para Schroepfer lo que permite esto es poner reglas claras del juego y hacer que el ecosistema sea más transparente para todos.

Más allá de los detalles técnicos, de la tecnología, la clasificación y eventual regulación del contenido pasa por una serie de variables y aspectos culturales, de contextos y sutilezas que pueden ser claras y fáciles de identificar para una persona, no tanto para una máquina. Facebook no ignora este aspecto y, de hecho, los ejecutivos de la empresa destacan la importancia de entender las variables sociales y las percepciones, abiertas o cerradas, que existen con ciertos temas a medida que cambia la región geográfica. “El perfecto ejemplo es qué tan cómodas se sienten las personas con el nudismo en diferentes partes del mundo. En Estados Unidos puede ser considerado como ofensivo, mientras que en la gran mayoría de Europa es algo normal”, asegura Schroepfer.

La identificación y clasificación de contenido mediante imágenes funciona a través de una técnica conocida como inteligencia artificial explicable, que hace referencia a las acciones que pueden ser entendidas fácilmente por una máquina. Por ejemplo, identificar un café. ¿Cómo lo hace? “Además de buscar información, el proceso de razonamiento va un poco en esta línea: es café porque es negro y es líquido; y normalmente el café se ve así. Además, tiene una banda de cartón alrededor, lo cual indica que está caliente, así que por eso no es gaseosa”. Además, se pueden crear sistemas de verificación separados al sistema original. Eso es lo que estamos haciendo”, dice Schroepfer.

Pero una cosa es entender el problema en una escala humana y otra bien diferente y distante es esperar que las máquinas lo comprendan y tomen las acciones correctas para solucionarlo. Los abismos de malinterpretación o clasificación errada del contenido pululan aquí y en la mitad de todo esto se encuentran la experiencia y los derechos de los usuarios.

Durante el evento, varios ejecutivos de Facebook reconocieron que parte de los retos para resolver estos temas tienen que ver con que la plataforma cuenta con usos diversos y muy localizados: en unos lados puede ser una herramienta política y en otros una de negocios; en muchos es ambas. Lo que esto dice de fondo es que una talla no les sirve a todos: no existe una solución única, que cubra todos los escenarios y funcione para todos los usuarios.

Este tipo de tecnología tiene mucho sentido dada la escala de Facebook y sus problemas, pero también podría ir en contra de la comunidad de desarrolladores, que son buena parte del corazón de la plataforma. Éstos, además de perder terreno en uso de datos de los usuarios por cuenta de nuevos controles de seguridad, también lo harán por el lado de “Borrar historia”, otra de las herramientas anunciadas durante el evento. En unos meses los usuarios podrán tener mucho más control sobre el rastro de información que dejan en las páginas que han consultado. ¿Una jugada acertada?: sí. ¿Oportuna?: quizá no tanto.

Claro, siempre serán mejores más controles y herramientas para empoderar a los usuarios. Pero, el punto es que, si efectivamente hubo irregularidades en los comicios de diferentes países en los que se involucraron datos de usuarios de Facebook, la compañía debió haber actuado de inmediato. Las nuevas herramientas serán una implementación futura y, evidentemente, no operan de forma retroactiva.

(Le puede interesar: Cofundador de Whatsapp deja Facebook)

Uno de los servicios centrales de la red social, y que quizá es transparente y, por ende, inadvertido para los usuarios es NewsFeed: el listado de contenido e información que ve cada persona en la plataforma.

La forma como se organiza esta información es centro de uno de los debates más agitados alrededor de Facebook y buena parte de su operación se realiza, sí, con inteligencia artificial. “Una de las cuestiones que abordamos todos los días es cómo manejar las cosas negativas que se publican. Es una responsabilidad de cada equipo de Facebook, necesitamos que la gente no viva malas experiencias para mantener segura la plataforma”, asegura Tessa Lyons-Laing, una de las gerentes de producto de NewsFeed. La estrategia es volver lo más preciso que se puedan las búsquedas, de manera que si alguien busca, por ejemplo, la palabra “corazón”, le aparezcan contenidos generales y poco explícitos, mientras que si alguien busca “operación de corazón”, le aparezca exactamente lo que pretende encontrar.

Lo próximos meses serán decisivos para saber si los esfuerzos de Facebook valieron la pena o no, para subir el estándar en seguridad sin lesionar la circulación del contenido y otorgando más garantías y herramientas para los desarrolladores.

El peso cultural de Facebook no se puede ignorar. Su relevancia conlleva una responsabilidad con más de 2.000 millones de personas que diariamente mueven parte de su vida en la plataforma.

*Viaje por invitación de Facebook.

Por Nicolas Marín / California*

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.
Aceptar