A mediados de septiembre, The Wall Street Journal publicó el primero de una serie de informes sobre uno de los gigantes de internet. Los Archivos de Facebook revelaron que la red social era consciente del daño que pueden causar sus productos, pero eligió no actuar para proteger sus beneficios. Se trata de un nuevo episodio de controversia en torno a esta red social y a su fundador, Mark Zuckerberg, cuya credibilidad está cada vez más cuestionada.
La información del periódico estadounidense procedía de miles de documentos filtrados por Frances Haugen, exempleada de Facebook. Haugen, especialista en algoritmos, trabajó para la red social como gerente de productos de su departamento de integridad cívica. Alarmada por las decisiones de la empresa, esta ingeniera informática decidió convertirse en informante, o whistleblower, y hacer públicos miles de documentos internos de Facebook.
Las filtraciones demostraron que Facebook era consciente de que sus plataformas se emplean para propagar discursos de odio e incitar a la violencia, sobre todo en los denominados países en desarrollo. Los archivos también demuestran que la empresa conocía que Instagram, otro de sus productos estrella, puede resultar perjudicial para la salud mental, sobre todo en mujeres adolescentes. Facebook, sin embargo, decidió ocultar la dimensión real del problema.
Desde que se convirtió en informante, Haugen ha centrado sus esfuerzos en conseguir que los legisladores actúen contra este tipo de prácticas. Tras pasar por el Congreso de los Estados Unidos, Haugen aterrizó en Bruselas el pasado 8 de noviembre para testificar ante el Parlamento Europeo.
La polarización como negocio
En su intervención, Haugen describió un modelo de negocio donde la polarización se traduce en beneficios. “Facebook antepone el dinero a la seguridad de sus usuarios a diario. Es un sistema que promueve las ideas más extremas”, afirmó la denunciante, añadiendo que “esto continuará sucediendo si no se toman medidas”.
Según Haugen, el algoritmo de Facebook promueve las publicaciones más extremas. Esto se debe a que provocan reacciones más intensas entre los usuarios -despertando, por ejemplo, su ira-, lo que se traduce en más interacciones. De hecho, incluso resulta más barato para los partidos políticos mostrar anuncios que promuevan odio.
En esta línea, la denunciante se refirió al conocido como experimento de Carol Smith. Para esta prueba, Facebook creó un perfil falso de una mujer conservadora de mediana edad en Carolina del Norte, Carol Smith. Su objetivo era comprobar si su algoritmo de recomendación de contenidos tiende a la radicalización. Esta sospecha resultó más que confirmada: a los cinco días, su perfil se topó con el universo de QAnon, la peligrosa teoría de la conspiración promovida por los seguidores más extremistas de Donald Trump.
Más transparencia
Haugen también denunció que Facebook opera de forma muy opaca. “Casi nadie fuera de Facebook conoce lo que sucede dentro”, explicó. Esta estructura ha permitido a la compañía tomar “de forma deliberada” decisiones perjudiciales para sus usuarios. Por ello, la informante pidió más transparencia, obligando, por ejemplo, a que la plataforma ponga sus datos a disposición de investigadores. “Facebook ha demostrado que no es de fiar. No podemos permitir que siga investigándose a sí misma”, afirmó.
Posibles soluciones
Haugen vaticinó que “la tecnología continuará acelerándose y será cada vez más peligrosa”. Por ello, es necesario buscar soluciones. Basándose en su experiencia, esta ingeniera cuestionó que la Inteligencia Artificial sea el remedio a los problemas que plantea Facebook. “La IA es como poner a 100.000 niños pequeños a resolver un problema. No funciona bien para cuestiones que requieran contexto y comprensión”, explicó.
Además, la informante señaló que existen grandes diferencias entre países debido, sobre todo, a la variedad de lenguas. Un sistema de IA para clasificar contenidos sería muy distinto según el idioma empleado. Sin embargo, Facebook como empresa es predominantemente anglófona y apenas invierte en mejorar sus servicios en otros idiomas.
Pero no todo son malas noticias. Algunas medidas sencillas como limitar el número de veces que una publicación puede ser compartida u obligar a leer un artículo antes de compartirlo han demostrado ser útiles para reducir la propagación de desinformación. Sin embargo, Facebook “elige no implementarlas”, aseguró Haugen, porque prefiere maximizar sus beneficios. Esto significa que es necesario legislar.
Para Haugen, la solución debe ser dinámica. No basta con crear una autoridad reguladora estática; un organismo de este tipo no tendría suficiente capacidad de adaptación. También se debe obligar a las plataformas a publicar sus datos. Por último, es necesario acabar con la impunidad de los responsables de las grandes plataformas. Esto podría lograrse, según Haugen, obligando a las empresas a nombrar a un responsable para todas aquellas decisiones que puedan afectar a los usuarios.
La Ley de Servicios Digitales
El testimonio de Haugen se produjo en el marco de las negociaciones por la nueva Ley de Servicios Digitales, propuesta por la Comisión Europea y sobre la cual debate en estos momentos el Parlamento Europeo. Con esta medida, Bruselas busca imponer nuevas obligaciones a los proveedores de servicios en internet. Paralelamente, la cámara también debate sobre la Ley de Mercados Digitales, con la que busca acabar con las prácticas monopolísticas de los guardianes de internet.
Según Haugen, las compañías hasta ahora han “explotado su habilidad para esconderse”. Ahora, la nueva ley podría obligarlas a operar con mayor transparencia y a asumir la responsabilidad de sus decisiones. Pero para que esto se cumpla, advirtió la exempleada de Facebook, la ley debe ser “fuerte” y su aplicación, “firme”. “Debemos actuar ya”, añadió.
Para Haugen, la nueva regulación debe ir más allá de los contenidos y limitar también los algoritmos que los recomiendan. “La nueva normativa no debería limitarse a los materiales ilegales. Es necesario un enfoque neutral en cuanto al contenido”. Además, la ley no debe permitir excepciones, ni siquiera para los medios de comunicación. De lo contrario, las plataformas podrían encontrar escapatorias.
Etiquetas conspiraciones, desinformación, escándalo, Facebook, transparencia, vigilancia, vulneración privacidad