Transformación Digital

Manuel Munive: “Los entes de inteligencia artificial no pueden ser sujetos a responsabilidad jurídica”

Manuel Munive, director del Centro de Investigación e Informática Jurídica de la Escuela Libre de Derecho de México, señala que la capacidad de las máquinas de aprender solas está abriendo nuevos debates en el mundo del derecho.

Por: Alejandra Rivera | Publicado: Miércoles 2 de octubre de 2019 a las 04:00 hrs.
  • T+
  • T-

Compartir

Según los expertos, en unos cinco años las calles podrían comenzar a poblarse de vehículos autónomos, impulsados principalmente por la implementación de la red 5G, lo que pondrá a prueba la capacidad de las máquinas con Inteligencia Artificial (IA) de tomar decisiones por si solas.

Imagen foto_00000003

El problema, explica Manuel Munive, director del Centro de Investigación e Informática Jurídica de la Escuela Libre de Derecho de México, es que mientras la tecnología y el aprendizaje autónomo de las máquinas avanzan a pasos acelerados, los debates en torno a las responsabilidades jurídicas frente a las decisiones de la IA son incipientes en el mundo del derecho.

El abogado, que visitó Chile para participar en el lanzamiento del Minor sobre Inteligencia Artificial y Derecho de la Universidad Autónoma de Chile, afirma que “la responsabilidad de la IA siempre debe recaer en el ser humano, quien programe esa IA o las empresas desarrolladoras”.

- ¿Cuáles son los principales retos que impone la inteligencia artificial al derecho?

- Uno de los principales retos es determinar la responsabilidad –civil y penal- respecto de los hechos realizados por entes cibernéticos a partir de su interacción con el ser humano. Y a partir de ahí tratar de adecuar el marco normativo para su desarrollo. Desde hace dos años se vienen realizando algunos encuentros para hablar sobre el tema, y desde el año pasado se observa una disrupción en la academia y en algunas escuelas de derecho. La discusión, curiosamente, partió en las escuelas de ingeniería o filosofía, pero donde debiera haber nacido no se ha dado. Estamos tarde en comparación a otras áreas, pero aún hay tiempo.

- ¿Qué países están liderando el debate desde el mundo del derecho?

- Estados Unidos y la Unión Europea, y en Latinoamérica, sólo a nivel de discusión, Colombia y Chile; en México menos, porque las escuelas todavía están tratando de entender el derecho a la antigua. Y por lo mismo, estas temáticas tampoco se reflejan en su enseñanza, siguen siendo tema de un seminario de un día o una materia electiva, pero hay pocos programas que aborden la ética, el derecho y el impacto de las TIC (Tecnologías de la Información y Comunicación) en la sociedad.

- ¿Se están abordando temáticas como ética e inteligencia artificial y sesgo de los algoritmos?

- Ya empiezan a generarse seminarios y cátedras en facultades de filosofía, pero no de derecho. El principal aspecto que hay que despejar es si se va a reconocer o no el sesgo a la hora de programar. Si los abogados seguimos encerrados en la ley y en la jurisprudencia, no vamos a dar con las respuestas correctas o con las ideas que puedan servir de base para buscarlas. Debe ser un estudio interdisciplinario y transversal, pues si no sabemos cómo operan los sistemas de IA, simplemente no se puede regular.

- ¿Los países deben avanzar en un marco regulatorio solos o buscar acuerdos globales?

- Debe ser global. Empezando por la región. En mayo la OCDE (Organización para la Cooperación y Desarrollo Económico) lanzó unos principios vectores en torno a la inteligencia artificial y a la generación de políticas públicas, de apoyo y cómo se debe avanzar. Pero la regulación debe ser regional, pues la realidad latinoamericana no es igual que la europea o anglosajona.

- Los cambios tecnológicos van más rápido que las decisiones regulatorias. ¿Hay tiempo?

- No más de cinco años. Si no se avanza, vamos a tener una serie de problemas en los tribunales, donde los sistemas jurídicos latinoamericanos de tradición romana no van a tener las herramientas suficientes para dar respuestas equitativas a cada caso. Los sistemas operan con base a una ley escrita, si bien la actuación del juez tiene cada vez una mayor ponderación, de todas formas estamos muy limitados, a diferencia del sistema anglosajón, que es más flexible, porque el juez puede ser más innovador en la solución.

- ¿A quién se debe atribuir la responsabilidad en caso de accidente con involucramiento de una IA?

- Una máquina no puede tener el mismo grado de responsabilidad que un humano. Si se piensa en otorgar personalidad jurídica a los entes de IA, tendría que ser muy limitada y condicionada a los vínculos con aquellas empresas desarrolladoras de esa IA y a los seres humanos que la hayan programado. Por más que exista el aprendizaje autómata de la IA, no tiene esa esencia del ser humano que le permite un libre arbitrio.

- ¿Qué falta para generar un marco regulatorio para la IA?

- Falta discusión. Por ejemplo, respecto de la responsabilidad hay varias posturas, desde reconocer una responsabilidad parcial de la IA, hasta quienes, incluso, plantean delegarle toda la responsabilidad. Esto sería muy riesgoso porque releva de responsabilidad al creador de la IA. El aprendizaje autónomo de una máquina puede haber partido de supuestos erróneos que alguien implantó. No creo que los entes de inteligencia artificial puedan ser sujetos a responsabilidad jurídica, sino sus creadores.

Lo más leído