FT Español

Si crees que las fake news son una amenaza, espera a conocer las “deepfake”

Se trata de una tecnología para crear videos con inteligencia artificial que pueden literalmente poner palabras en boca de la gente.

Por: Roula Khalaf, Financial Times | Publicado: Jueves 26 de julio de 2018 a las 13:51 hrs.
  • T+
  • T-

Compartir

Recientemente, me mostraron docenas de pequeñas imágenes de Donald Trump, algunas reales, otras creadas digitalmente. Me resultó imposible distinguir unas de otras. Cuando me pidieron que escogiera tres que posiblemente fueran falsas, sólo elegí una correctamente.

El ejercicio fue una introducción a la amenaza de seguridad inminente de la tecnología "deepfake”, un proceso de imitación de patrones del habla y de imágenes realizado con inteligencia artificial para crear realidades alternativas, en las que alguien parece estar diciendo o haciendo cosas que nunca dijo o hizo.

En su forma más simple, las imitaciones “deepfake” se crean dándole instrucciones a una computadora y alimentándola con imágenes y audio de una persona para enseñarle a imitar la voz de esa persona (y posiblemente mucho más). Ya hay una aplicación para hacerlo: FakeApp (y videos tutoriales sobre cómo usarla) y una comunidad digital subterránea que superpone caras de celebridades sobre las imágenes de actores en vídeos pornográficos.

Actualmente las producciones “deepfake” son imperfectas y pueden detectarse, pero la tecnología está progresando rápidamente. Dentro de dos o tres años tal vez veamos videos y discursos sin poder detectar si son reales o fabricaciones.

En un fascinante estudio, los investigadores de la universidad de Washington aprendieron a generar videos de Barack Obama a partir de su voz y material de archivo. La forma de la boca del expresidente estadounidense fue modelada para crear un "Obama sintético". En la Universidad de Stanford, los investigadores han manipulado la rotación de la cabeza, la mirada y el parpadeo de los ojos, produciendo videos generados por computadora que son difíciles de distinguir de la realidad.

Aplicaciones y abusos

La tecnología podría hacer maravillas para la edición y producción de películas y para la realidad virtual. En un futuro no muy lejano, el doblaje podría transformarse: los actores mexicanos en una telenovela hablarán inglés (o chino o ruso) y tendrán un aspecto más auténtico. En el ámbito de los negocios y los asuntos mundiales, la tecnología podría romper la barrera del idioma en las llamadas de videoconferencia traduciendo lo que se está diciendo y al mismo tiempo alterando los movimientos faciales y bucales para que parezca que todos están hablando el mismo idioma.

Pero también hay que considerar los posibles abusos, por individuos o agentes estatales empeñados en difundir información errónea. La tecnología “deepfake” podría poner palabras y expresiones en la cara y la boca de un político e influir en unas elecciones. Los videos podrían fabricar una amenaza y provocar una crisis política o un incidente de seguridad. "Si nos basamos en los últimos años, los videos falsos se desplegarán cada vez más para avanzar las agendas políticas", dice Yasmin Green, directora de investigación y desarrollo de Jigsaw, el grupo de expertos de Alphabet. "En el pasado, los esfuerzos de este tipo no eran técnicamente sofisticados y, por lo tanto, se podían desacreditar fácilmente, pero la tecnología se está desarrollando más rápidamente que nuestra comprensión de la amenaza que plantea".

Ya hemos visto evidencia del problema. En mayo del año pasado, la agencia de noticias de Qatar y sus cuentas de redes sociales fueron pirateadas y se le atribuyeron declaraciones al emir que desencadenaron una disputa diplomática. Los vecinos de Qatar usaron los comentarios para justificar un boicot económico del emirato. “El episodio de Qatar mostró la intención de usar las falsificaciones para seguir agendas políticas", dice Green. "Imagínense si tuvieran las capacidades para crear imitaciones “deepfake’”.

Recientemente, antes de las elecciones locales en Moldavia, se publicó un video de un segmento de noticias de Al Jazeera en la página de Facebook de la red con subtítulos en rumano. Afirmaba que se trataba de la propuesta de un candidato a la alcaldía de alquilar una isla a los Emiratos Árabes Unidos. Fue una fabricación, pero el video se volvió viral.

¿En qué creer?

El daño de las actuales noticias falsas palidece en comparación con el daño que podría provenir de las falsificaciones “deepfake”. A Aviv Ovadya, tecnólogo jefe del Centro para la Responsabilidad de las Redes Sociales de la Universidad de Michigan, le preocupa que los profundos fraudes no sólo convencerán a la gente de cosas que no son reales, sino que también socavarán la confianza de las personas con respecto a lo que realmente es cierto. "Esto impactará todo en nuestra sociedad, desde el Estado de derecho hasta cómo se realiza el periodismo", dice.

Las agencias de inteligencia y los departamentos de defensa están muy conscientes de los avances en los videos generados por computadora (y posiblemente ya estén realizando sus propias investigaciones). Algunos de los principales investigadores en el campo también están buscando soluciones de detección, al igual que las compañías de tecnología y los gobiernos.

Espero que encuentren una forma de controlar este problema más rápidamente de lo que lo hicieron cuando se trataba de detectar y descartar las noticias falsas.

Lo más leído