La publicación en redes sociales de un video manipulado que mostraba a la candidata presidencial de la centroderecha, Evelyn Matthei, tardando en responder a una pregunta, reabrió el debate en torno a la necesidad de regular el contenido falso generado con inteligencia artificial (IA) y difundido con bots (perfiles robot) en plataformas digitales.
En este contexto, la directora de la Asociación de Ética Empresarial y Organizacional (AEEO), Macarena McKay, señaló que es partidaria de legislar las fake news (noticias falsas), pero “con una regulación que no silencie voces ni limite la libertad, pero que haga responsables a quienes difunden desinformación o información falsa, sobre todo en un contexto electoral”.
La desinformación es una táctica que saltó al debate en 2018 con el escándalo Cambridge Analytica-Facebook, una empresa de datos que utilizó información de la red social para enviar información falsa personalizada durante campañas políticas. Prácticas que han sido utilizadas desde el ex primer ministro del Reino Unido, Boris Johnson, para difundir mensajes falsos a favor del Brexit, hasta el presidente de Estados Unidos, Donald Trump, para manipular la opinión pública en tiempos de campaña electoral.
-¿Es partidaria de regular las noticias falsas con inteligencia artificial en redes sociales?
- Soy partidaria, pero de una regulación que no silencie voces ni limite la libertad, pero que haga responsables a quienes difunden desinformación o información falsa, sobre todo en un contexto electoral. No todo error es fake news, pero si hay intención de manipular, tiene que haber consecuencias claras. Ya nos dimos cuenta como sociedad que la autorregulación no basta. No hay efectividad suficiente en las plataformas con sus propios filtros. Se necesita un marco legal y ético común.
-¿Cómo se regula sin limitar la libertad de expresión?
- Lo que se tiene que regular no es una opinión o las ideas de las personas, sino el contexto y las condiciones cuando una mentira se vuelve viral y parece verdad. Es exigir, por ejemplo, quién está detrás del contenido, quién pagó por él, a quién le llegó, la transparencia del algoritmo e informar claramente cuando es generado con IA. Y regular, sobre todo, la trazabilidad de la publicidad política. Saber quién está financiando, qué mensajes, cómo se están segmentando, cuánto se ha gastado. Eso para mí no es censura, es transparencia democrática.
Por ejemplo, en el caso del video (manipulado) de Evelyn Matthei, determinar de qué cuenta salió, porque no tienes que prohibir el contenido, sino que hay que exigir una transparencia en estos algoritmos y la trazabilidad.
Ahora, si no puedes distinguir lo real de lo falso, hay un debate súper claro: tenemos que proteger la democracia, no controlar la opinión. El mensaje más importante es que la libertad de expresión es pilar de la democracia. El problema, es que, si la verdad no comparte esta visión, es un arma de doble filo.
-¿La información falsa generada con IA pone en riesgo la democracia?
- Este es el debate más profundo. Obviamente que se pone en riesgo la democracia con las fake news. ¿Por qué? Porque la democracia no es solamente votar, sino que es votar informado con información veraz, en igualdad de condiciones. Cuando hago esta parte del curso de ética en mis clases (en la Universidad de Los Andes), esta es la forma de explicarlo a los jóvenes. Es decir, la información que me llegue tiene que ser la misma que le llegó a otro votante. Entonces, sin verdad, no hay decisión real. Imagínate una opinión pública construida sobre mentiras. No hay debate democrático, hay pura manipulación masiva, como lo que pasó con Cambridge Analytica. Se distorsiona el poder, porque el que miente más o mejor gana, no el que tiene propuestas mejores. Y esto es injusto para los ciudadanos en cualquier proceso electoral. Y lo peor, es que se quiebra la confianza.
Regulación internacional
-¿Las plataformas están dispuestas a evitar las fake news o a entregar datos en caso de una investigación?
-Más que entregar datos, ellos dicen: ´Nosotros ponemos la tecnología, pero ustedes son los responsables del uso´. Es una materia súper gris, porque no están abiertas a entregar datos que importan, ahí cuesta fiscalizar e investigar. Y sin esos datos no vamos a poder diseñar buenas políticas públicas. Hoy casi que dependemos de la buena voluntad de estas plataformas. Y eso en el tiempo es imposible que sea sostenible. Por eso tiene que haber una obligación legal, por ejemplo, de entregar cierta data, de contabilidad, de hacerse responsable también en el minuto en que algo se viraliza. Pero de nuevo, esto es materia gris absoluta. Por eso, apelar a la educación, a entender las diferencias y a empoderar a la ciudadanía para que detecte cuando algo no es real, es más corto que esperar a que haya una ley.
-¿Qué experiencias en legislación destaca de otros países?
- La Unión Europea es el referente, es el más avanzado en regular el ecosistema digital, aunque ahora se están arrepintiendo porque dicen que es medio restrictivo. A través del Digital Service ACT (DSA), obliga a las grandes plataformas, como Meta o X, a que evalúen, mitiguen o minimicen riesgos como la desinformación en contextos electorales. Hoy, estas empresas están obligadas a explicar cómo funcionan sus algoritmos y por qué priorizan tal decisión o contenido.
Francia ya tiene una ley contra la desinformación, pero en período electoral. En Australia también estaban tratando de tener una ley que obligue a estas plataformas a moderar contenido. En Latinoamérica, solo en Brasil hay un proyecto de ley de fake news, principalmente para virales falsos.
Y en Estados Unidos, cuando no hay una ley estatal contra noticias falsas, prima la libertad de expresión. Entonces, claro, hay normas estatales, pero todavía no hay (una federal), sobre todo en las campañas políticas.
Pero no hay leyes duras. Es súper complicado lo que estamos viviendo hoy.
En los países nórdicos, como Noruega, han tomado un camino interesante, están haciendo una campaña de ciudadanía crítica, de educar mediáticamente y con un potente esfuerzo por confianza institucional. Están ayudando a que la gente se dé cuenta de que la mentira organizada es una amenaza para la democracia. Los que tienen la última decisión de lo que consumen, viralizan, comparten o hacen likes, somos los ciudadanos. Y esto tiene que partir desde chiquititos, con pensamiento crítico, con educación ética, entender las consecuencias, hacerse responsable de lo que pasa. Hay que regular y educar.