El director de Protección de Datos Personales, Ciberseguridad y Nuevas Tecnologías de HD Group, Juan Pablo González, planteó que se requiere avanzar hacia una normativa que resguarde los derechos de identidad digital, la honra o la privacidad de una persona ante un contenido falso generado con inteligencia artificial “sin inhibir el desarrollo tecnológico”.
Señaló que hay varios proyectos de ley en el mundo que buscan regular el uso de inteligencia artificial para aplicar en caso de deepfake (contenido falso generado con IA) o el uso no consentido de imágenes elaboradas con esta tecnología.
Respecto de Chile, dijo que en algunas alteraciones de sistemas informáticos podría aplicarse la Ley de Delitos Informáticos, “pero no contamos con una regulación tan exhaustiva en el uso de IA para realizar esas prácticas”.
No obstante, destacó el proyecto de ley que ingresó en junio pasado al Congreso, que regula la obligación de establecer un sello claro y rastreable del contenido generado con inteligencia artificial.
- ¿Se debe legislar el contenido falso generado con IA que se difunde en redes sociales?
- Siempre es importante entender que las tecnologías en sí son neutras. La complejidad es cuando se utilizan particularmente con fines que van más allá de lo que uno puede prever y que, finalmente, afectan la honra o eventualmente la vida privada de la persona. Ahí no solamente se ve perjudicada la identidad digital del sujeto, sino también se puede ver afectada la integridad física o su salud psicológica. Por ende, creo que sí se debiese tratar de avanzar en una regulación, siempre buscando un balance, que sea una regulación de aplicación restringida y busque las garantías mínimas para quien se ve afectado por el uso de la tecnología, pero que en ningún caso inhiba el desarrollo de este tipo de tecnologías en el país.
- ¿Las plataformas deberían tener una obligación legal de minimizar la difusión de deepfakes?
- Es importante el debate sobre la responsabilidad que tienen estas plataformas y de cuáles son los límites. Estas no pueden actuar como entes de censura previa, pero sí deben resguardar, a través de normas de convivencia, el no promover la masificación de la desinformación a través de su propia infraestructura.
Es un tema importante a tener presente, sobre todo, tomando la lógica de la legislación europea en el sentido de las responsabilidades que tienen estas grandes compañías en torno a la información.
Responsabilidad y procesos electorales
- ¿Qué apertura hay de las plataformas de redes sociales para aceptar una regulación?
- Claramente existe una monetización de por medio en la difusión de estos contenidos, y hoy las plataformas no tienen ningún deber, por ejemplo, de verificar las fuentes por las cuales se produce esta información, que puede ser tremendamente dañina, porque quien la recibe puede crear una visión sesgada de lo que es real y de lo que no. La línea entre lo que es verídico y lo que no se mimetiza y se vuelve bastante gris.
En ese sentido, el gran desafío es ver cuál es el nivel o el régimen de responsabilidad que tienen las redes sociales, entendiendo que finalmente ellas tampoco tienen el rol de generar filtros de censura previamente. Algunas plataformas desde el minuto uno colocan una marca, etiqueta o sello de agua por defecto, que indica que un contenido es generado por inteligencia artificial.
Pero los usos de este tipo de contenidos dentro de las plataformas es un límite que se tiene que discutir, porque puede afectar, no solamente los intereses que se quieren proteger del usuario, sino también de terceros que pueden estar en su legítimo derecho de poder beneficiarse del contenido realizado con inteligencia artificial.
Cualquier nivel de responsabilidad o de deber de generar algún tipo de filtro a la información debe ser tratada con cuidado, porque, por una parte, lo que uno busca es custodiar el resguardo de esta información, pero finalmente se le da poder a un privado para restringir libertades que son inherentes a los procesos de discusión o de información.
- ¿Cómo amenaza este fenómeno a los procesos democráticos?
- Un componente clave es que cualquiera de estos procesos (electorales), en los que se difunde una gran cantidad de contenido cuya veracidad no se conoce muy bien, finalmente afecta de manera muy nociva los procesos de discusión, particularmente porque generan confusión de saber si la información que estoy obteniendo proviene de una fuente verídica o no. Y esto obviamente puede inducir a tomar decisiones desde la desinformación; lo hemos visto particularmente en procesos de elecciones en Europa y también en Estados Unidos.
El riesgo de la desinformación amplificado por el uso de inteligencia artificial siempre es un tema importante para generar discusión. Hay que verlo con extremo cuidado y se tiene que fomentar la educación en todas las partes que están involucradas en estos procesos.