Columnistas

ChatGPT: ¿hay riesgos asociados a la inteligencia artificial?

MACARENA GATICA Socia Alessandri Abogados

Por: MACARENA GATICA | Publicado: Jueves 23 de marzo de 2023 a las 04:00 hrs.
  • T+
  • T-

Compartir

MACARENA GATICA

ChatGPT es un sistema de comunicación en tiempo real basado en un modelo de lenguaje que utiliza inteligencia artificial (IA), desarrollado por OpenAI. Responde preguntas, conversa, redacta tareas escritas, entre otras actividades. Su lanzamiento, en noviembre de 2022, ha provocado expectación en entornos como la educación y ha planteado interrogantes respecto de los riesgos que su uso pueda implicar.

En Chile existe una política nacional de IA desde 2021 que define los lineamientos del país para los próximos diez años. Su objetivo es empoderar a las personas en su uso y desarrollo y participar en sus consecuencias legales, éticas, sociales y económicas.

“Es indudable que el uso ético de estas tecnologías representa el mayor desafío. Pero culpar a la IA como la causante de la falta de ética e impedir su uso y desarrollo es absurdo”.

Profundicemos en algunos de estos efectos.

Los profesores han instruido a sus alumnos a no utilizar el ChatGPT para hacer sus tareas, porque en términos simples estos trabajos no son originales y no aportan al aprendizaje. Lo mismo ocurre en la actividad empresarial. El uso de textos obtenidos por esta vía puede infringir derechos de autor. Por otra parte, la inclusión de sesgos en algoritmos conlleva el riesgo de generar discriminaciones arbitrarias, por ejemplo, en procesos de reclutamiento y selección de personal y en relaciones de consumo.

Al respecto el Sernac dictó una circular sobre el uso de IA, promoviendo la transparencia algorítmica, es decir, el deber de informar sobre las variables que integra el algoritmo. Asimismo, se puede dar la afectación del derecho fundamental de la protección de los datos personales, que es un insumo básico para entrenar el sistema de IA.

También hay consecuencias para la fuerza laboral. Específicamente, el aumento del desempleo no puede ser un fundamento válido para inhibir el desarrollo de la tecnología y los efectos positivos que la IA genera. El foco debe estar en transformar las competencias de los trabajadores para que aporten un mayor valor en los procesos productivos. Se necesitan políticas públicas y de las empresas para dotar a los trabajadores de las nuevas capacidades requeridas.

Es indudable que el uso ético de estas tecnologías representa el mayor desafío. Sin embargo, culpar a la IA como la causante de la falta de ética e impedir su uso y desarrollo es absurdo. La falta de ética existe al margen y con anterioridad a la IA. El mismo ChatGPT advierte entre sus riesgos las brechas éticas. Un recordatorio de que este software ha sido entrenado por humanos.

Existiendo consenso de que existen riesgos, la pregunta es cómo gestionarlos. ¿Debe regularse la IA? Podría desincentivar el progreso de la tecnología, errar en el enfoque, y que rápidamente quede obsoleta. Pareciera ser que la solución es la definición de lineamientos y la autorregulación. Desarrollador y usuario deben tener presentes los riesgos, adoptando medidas tendientes a eliminarlos o aminorarlos.

Lo más leído