FT Español

Cuatro revelaciones de los documentos filtrados de Facebook

Según memorandos conocidos este lunes, la firma de Mark Zuckerberg sabía del contenido abusivo a nivel mundial, pero no lo controló.

Por: Financial Times - Traducido por María Gabriela Arteaga | Publicado: Lunes 25 de octubre de 2021 a las 12:17 hrs.
  • T+
  • T-
Foto: Reuters
Foto: Reuters

Compartir

Por Hannah Murphy, Martha Muir, Dave Lee y Madhumita Murgia

Facebook está luchando contra su crisis más grave desde el escándalo de Cambridge Analytica después de que un denunciante que acusaba a la compañía de colocar "ganancias sobre seguridad" arrojara luz sobre su funcionamiento interno a través de miles de páginas de memorandos filtrados.

Los documentos fueron revelados a los reguladores estadounidenses y proporcionados al Congreso en forma redactada por la asesora legal de Frances Haugen. Un consorcio de organizaciones de noticias, incluido el Financial Times, ha obtenido las versiones redactadas recibidas por el Congreso.

A principios de este mes, Haugen testificó en el Congreso que la empresa de redes sociales no hace lo suficiente para garantizar la seguridad de sus 2.900 millones de usuarios, minimiza el daño que puede causar a la sociedad y ha engañado repetidamente a los inversionistas y al público. El Wall Street Journal también publicó una serie de artículos llamados Archivos de Facebook.

Aquí hay cuatro revelaciones sorprendentes que contienen los documentos:

Facebook tiene un gran problema de idioma

A menudo se acusa a Facebook de no moderar el discurso de odio en sus sitios en inglés, pero el problema es mucho peor en países que hablan otros idiomas, incluso después de que prometió invertir más tras ser culpado por su papel en facilitar el genocidio en Myanmar en 2017. 

Un documento de 2021 advirtió sobre su muy bajo número de moderadores de contenido en dialectos árabes hablados en Arabia Saudita, Yemen y Libia. Otro estudio de Afganistán, donde Facebook tiene 5 millones de usuarios, encontró que incluso las páginas que explicaban cómo denunciar el discurso de odio estaban traducidas incorrectamente.

Las fallas ocurrieron a pesar de que la propia investigación de Facebook marcó a algunos de los países como de "alto riesgo" debido a su frágil panorama político y la frecuencia de los discursos de odio.

Según un documento, la compañía asignó el 87% de su presupuesto para desarrollar sus algoritmos de detección de información errónea en EEUU en 2020, frente al 13% del resto del mundo.

Haugen dijo que Facebook debería ser transparente sobre los recursos que tiene por país e idioma.

Facebook a menudo no comprende cómo funcionan sus algoritmos

Varios documentos muestran a Facebook perplejo por sus propios algoritmos.

Un memorando de septiembre de 2019 descubrió que los hombres estaban ocupando un 64% más de puestos políticos que las mujeres en "casi todos los países", y el problema era particularmente importante en los países africanos y asiáticos.

Si bien era más probable que los hombres siguieran cuentas que producían contenido político, el memorando decía que los algoritmos de clasificación de feeds de Facebook también habían jugado un papel importante.

Una nota de junio de 2020 encontró que estaba "virtualmente garantizado" que los "principales sistemas de Facebook muestran sesgos sistémicos basados ​​en la raza del usuario afectado".

El autor sugirió que quizás la clasificación de las fuentes de noticias está más influenciada por las personas que comparten con frecuencia que por las que comparten y se involucran con menos frecuencia, lo que puede correlacionarse con la raza. Eso da como resultado que se priorice el contenido de ciertas razas sobre otras.

Cuando su inteligencia artificial falló, Facebook hizo que sea más difícil denunciar el discurso de odio

Facebook ha dicho durante mucho tiempo que sus programas de inteligencia artificial pueden detectar y eliminar el discurso de odio y el abuso, pero los archivos muestran sus límites.

Según una nota de marzo de 2021 de un grupo de investigadores, la compañía toma medidas en tan solo entre el 3% y el 5% de los discursos de odio y el 0,6% de contenido violento. Otro memorando sugiere que es posible que nunca logre pasar del 10% al 20%, debido a que es "extraordinariamente desafiante" para la IA comprender el contexto en el que se usa el lenguaje.

Sin embargo, Facebook ya había decidido confiar más en la inteligencia artificial y recortar el dinero que gastaba en moderación humana en 2019 en lo que respecta al discurso del odio. En particular, la empresa dificultó la denuncia y la apelación de decisiones sobre incitación al odio.

Facebook dijo que "al combatir el discurso de odio en Facebook, nuestro objetivo es reducir su prevalencia, que es la cantidad que la gente realmente ve". Agregó que el discurso de odio representa solo el 0,05% de lo que ven los usuarios, una cifra que se ha reducido en un 50% en los últimos tres trimestres.

Facebook jugueteó mientras el Capitolio ardía

Los documentos revelan la lucha de Facebook para contener la explosión de discursos de odio y desinformación en su plataforma en torno a un motín del 6 de enero en Washington, lo que provocó disturbios internos.

Los memorandos muestran que la compañía desactivó ciertos protocolos de emergencia a raíz de las elecciones de noviembre de 2020, solo para luchar para volver a activar algunas cuando la violencia estalló. Una evaluación interna encontró que la rápida implementación de las medidas se vio obstaculizada por la espera de la aprobación del equipo de políticas.

Incluso las acciones proactivas no lograron el efecto deseado. En octubre de 2020, Facebook anunció públicamente que dejaría de recomendar "grupos cívicos", que discuten temas sociales y políticos. Sin embargo, debido a las dificultades técnicas para implementar el cambio, a 3 millones de usuarios estadounidenses se les recomendaba al menos uno de los 700.000 grupos cívicos identificados diariamente entre mediados de octubre de 2020 y mediados de enero de 2021, según una nota de investigación.

Respuesta de Facebook

Facebook se negó a comentar sobre algunos de los detalles de las acusaciones, en cambio dijo que no anteponía las ganancias a la seguridad o el bienestar de las personas y que "la verdad es que hemos invertido US$ 13 mil millones y tenemos más de 40.000 personas para hacer un trabajo: mantener a las personas seguras en Facebook".

Lo más leído