Economía

Facebook se une al impulso de Silicon Valley para parecer responsable por contenidos tóxicos

El grupo de medios sociales tomó medidas en 2019 para abordar la preocupación acerca de su impacto, pero los críticos tildaron sus reformas de movidas cosméticas.

Por: FT en Español | Publicado: Viernes 27 de diciembre de 2019 a las 11:35 hrs.
  • T+
  • T-

Compartir

En 2019, los esfuerzos de Mark Zuckerberg representaron el signo más visible de los intentos de Silicon Valley de reformarse.

Por vez primera, Facebook pasó de responder tardíamente a las reacciones en contra de su impacto negativo en el mundo a tratar de abordar esos problemas proactivamente.

Y, a principios de año, el director ejecutivo de Facebook presentó una directa y sorprendente solicitud ante el Congreso: por favor regulen las plataformas de Internet como la nuestra.

Eso coincidió con un cambio radical en Silicon Valley, a medida que las grandes compañías impulsadas por la publicidad, desde Google hasta Twitter, se dieron cuenta de que la regulación se avecinaba y comenzaron a hacer ajustes a sus procesos y políticas para alentar a los políticos y a los organismos de control a que no fueran demasiado rígidos.

Reacción tardía

Sin embargo, para fines de año, Zuckerberg en particular había hecho poco para persuadir a los escépticos de que su negocio, el cual registró ingresos trimestrales récord de US$ 17,6 mil millones en octubre, tenía verdaderas aspiraciones de construir una sociedad mejor para sus 2.400 millones de usuarios activos mensuales.

De hecho, los críticos más severos de la compañía han opinado que los cambios de Facebook han sido meramente "cosméticos", asegurándose de que nada perjudique un modelo de negocio que, según dicen ellos, se basa en acumular cantidades de datos de los usuarios, lo cual les permite a las marcas estrechamente focalizar sus productos y promover contenido divisivo en la batalla por la atención de los usuarios.

Entonces, ¿Facebook -y por extensión, Silicon Valley- está realmente tomándose en serio cambiar para ser mejor?

"Crecimiento a toda costa"

Los expertos han indicado que el cambio de lo que algunos han descrito como la histórica mentalidad de un "crecimiento a toda costa" de Facebook ha sido lento y titubeante.

Pero, en 2018, el escándalo de Cambridge Analytica -en el cual una compañía de datos del Reino Unido fue acusada de inapropiadamente acceder la información de los usuarios de Facebook- obligó a la compañía a realizar un cambio de estrategia.

El escándalo destacó algunas de las particularidades del modelo de negocio impulsado por anuncios de Facebook y de otros grupos de medios sociales: el poder ofrecerles a los vendedores "microtargeting", o microfocalización -lo cual les permite concentrarse en pequeños grupos de usuarios- , y el uso de algoritmos que promueven contenido extremo y provocativo porque atrae la atención.

Mientras tanto, la clara evidencia de la interferencia rusa en las elecciones estadounidenses de 2016 -la cual Zuckerberg en una ocasión tildara de "idea loca"- reveló que existían brechas en la supervisión de Facebook en cuanto a su contenido.

Contenido tóxico

En 2019, la compañía comenzó a hacer más para activamente abordar las preocupaciones acerca de su impacto en el mundo, conforme los reguladores de EEUU y de la Unión Europea comenzaron a enfocarse en la empresa cada vez más. Como parte de los esfuerzos para eliminar el contenido tóxico, y la desinformación en particular, el grupo ha expandido sus equipos de seguridad y de protección a 35.000 personas actualmente, incluyendo a trabajadores independientes- y ha comenzado a publicar detalles de sus actividades de moderación, actualizando sus políticas y empleando a verificadores de datos.

Los datos publicados por la compañía sugieren que se ha vuelto más eficiente en controlar el contenido nocivo: el 80% del contenido marcado como posible "discurso de odio" es evaluado por sistemas automatizados y por moderadores humanos antes de que los usuarios lo reporten, en comparación con el 53% hace un año, por ejemplo.

No obstante, el volumen de publicaciones problemáticas todavía parece estar aumentando. Facebook tomó medidas en relación con 7 millones de ejemplos de discurso de odio durante el último trimestre, más del doble de los 2,9 millones durante el mismo período hace un año. Mientras tanto, la cantidad de cuentas falsas que Facebook ha eliminado en 2019 ha sido de 5,4 mil millones, muchas veces más la cantidad de cuentas reales en toda la plataforma.

Críticas internas

Muchos han señalado que los avances también han acarreado un costo: Facebook este año enfrentó críticas por las condiciones de trabajo de sus moderadores y una aparente falta de preocupación por el impacto del trabajo en la salud mental.

Facebook ha dicho que las limitaciones de la inteligencia artificial a menudo utilizada para la moderación de contenido representan una barrera para una acción más rápida. Pero otros en la industria han indicado que existe tecnología sofisticada disponible, y han expresado sorpresa ante el hecho de que a Facebook no le resulte más fácil identificar el contenido problemático.

El mes pasado, el Comité Nacional Demócrata (DNC, su sigla en inglés) estadounidense le escribió a Sheryl Sandberg, la directora de mercadotecnia de Facebook, en una carta vista por Financial Times (FT), instando a la compañía a "dedicar más recursos para detectar comportamientos inauténticos" después de encontrar su propia evidencia de la existencia de "actores domésticos manipulando el discurso en línea".

Algunos críticos dijeron a FT que creen que Facebook ha sido intencionalmente negligente. Numerosas plataformas de monitoreo e investigadores de medios sociales señalaron que, cuando habían planteado problemas acerca del contenido, Facebook no había actuado al respecto o lo había hecho sólo si el tema había atraído la atención del público.

El mayor paso en falso de Facebook este año, según los críticos, y el que la hizo destacar más del resto del grupo de los medios sociales, fue el relacionado con la publicidad política.

Hace varios meses, Zuckerberg tomó la controvertida decisión de no verificar los anuncios publicados por políticos y por grupos de campaña. Él justificó la medida presentando a Facebook como un bastión de la libertad de expresión que no debería censurar la política.

Después de una negativa reacción pública, otros grupos respondieron, con Twitter decidiendo prohibir los anuncios políticos, con Snap indicando que los verificaría y con Google seriamente limitando sus capacidades de microfocalización.

Para muchos, la actitud de Facebook representa una falta de voluntad para disrumpir la forma en que genera dinero.

En cuanto a la acción más severa solicitada por sus críticos -que Facebook elimine la microfocalización y la amplificación algorítmica que da como resultado que el contenido se vuelva viral-, es probable que sólo los reguladores puedan forzar la implementación de estos cambios fundamentales.

"La regulación que afecta su modelo de negocio central es demasiado espantosa para que la consideren, razón por la cual están presionando a favor de la autorregulación", comentó Siva Vaidhyanathan, profesor de estudios de medios en la Universidad de Virginia. "Pero la autorregulación es un oxímoron. Es por eso que depender de que Facebook regule a Facebook es una locura", él agregó.

Lo más leído