Transformación Digital

Pablo Junco, Líder de Data e IA de Microsoft Latinoamérica: “Chile está llamado a ser el Silicon Valley de la región”

El ejecutivo destacó el esfuerzo por crear un marco ético para el desarrollo tecnológico en el país y alertó sobre los casos de “uso sensible” de esta tecnología, como la denegación de un servicio o el riesgo de daño.

Por: Martín Baeza | Publicado: Miércoles 10 de noviembre de 2021 a las 04:00 hrs.
  • T+
  • T-

Compartir

Pablo Junco tiene casi 25 años de experiencia internacional en el rubro y hoy, además de ser el Director Senior de Data e Inteligencia Artificial (IA) de Microsoft, está a cargo del programa de IA responsable de la multinacional tecnológica.

En el contexto del lanzamiento de la nueva Política Nacional de IA de Chile y de su participación en un foro de la Cámara Chilena Norteamericana de Comercio (AmCham), el experto conversó con DF acerca del desarrollo de esta tecnología en Chile y el mundo y la ética que exige su uso.

Imagen foto_00000003

-¿Cómo ve al país con respecto a otros de la región?

-Una de las cosas que me sorprendió es que Chile está muy fuerte desde la universidad en temas matemáticos y de física. El nivel de ingeniería es alto y eso lo demuestra el ecosistema de startups.

Crean mucha asociación y pusieron la idea de cómo desarrollar una estrategia de ética en IA. Chile está llamado a ser el Silicon Valley de Latinoamérica, podrían serlo perfectamente con más dinero.

-¿Qué le pareció la Nueva Política de IA de Chile?

-A diferencia de las primeras reacciones, que podría parar el desarrollo, creo que está muy bien. Hubo mucho populismo en decir que poner restricciones a la IA hace que no se avance en la tecnología. Lo que Chile está haciendo es lograr consensos en materia ética, pero también habitar la innovación de forma responsable con un proceso de mejora continua, colaborativo y abierto al diálogo.

-¿Podría ser un hub de IA en la región?

-Las grandes empresas estamos yendo a Chile. Falta más cultura de exportación, financiar más a las incubadoras y divulgar lo que se está haciendo. Personalmente, me gustaría que desde el gobierno salieran incentivos para atraer talentos. Lo que hace tan importante a un Silicon Valley no es el dinero que mueve, si no la cultura.

Imagen foto_00000002

Aplicaciones

Para Junco, esta tecnología siempre aportará al interpretar datos de forma eficiente, ya sea clasificando documentos o detectando una amenaza bélica. “La IA tiene la capacidad de buscar patrones. Es como un cardiograma, tú ves que el corazón va latiendo y de repente se acelera. Ahí hay que revisarlo”.

-¿Qué aplicaciones de la IA destaca?

–Un ejemplo son los chat bots, para conocer las dudas de los clientes o realizar alguna operación. La IA debería ser suficiente para tener una primera conversación y detectar el nivel anímico del cliente. Si yo estoy en “modo queja” lo último que me apetece es hablar con una máquina.

-¿Un robot puede detectar emociones humanas?

–Empresas como Microsoft ya tenemos entrenados ciertos modelos que detectan esta situaciones. Buscamos a través del tono de voz o por palabras de un vocabulario específico, no hay nada mágico.

Riesgos y ética

Junco considera que “hay que evangelizar en los casos de uso sensible, porque el daño a una persona, a una organización o incluso a la sociedad puede ser irreversible”.

-¿Influye el sesgo del programador en la IA?

–Hay factores de riesgo importante que pueden conllevar prejuicios en temas de equidad, fiabilidad, seguridad e incluso privacidad. Y cómo el programador entrena los algoritmos es un gran peso en la ecuación. Influyen los datos que se usen, el algoritmo y en función de qué escenario de uso se desarrolló.

-¿En qué se reflejan estos impactos negativos?

–Lo primero es la denegación de servicios. Imagina que yo pido acceso a financiamiento y el algoritmo me lo niega. Si hemos hecho la muestra con gente rica, el criterio no va a ser el mismo que para una persona pobre, el índice de riesgo es diferente. Lo mismo para el acceso médico, el reclutamiento de una empresa o la inscripción de un alumno en un sistema educativo. Que el modelo no te excluya es clave.

-¿Y cuáles son los otros casos sensibles?

–El segundo es el riesgo de daño. Por ejemplo, si un edificio inteligente decide cerrar puertas en caso de incendio para que no pase aire, hay un riesgo de dejar a alguien encerrado. Por eso recomendamos solo alertas o señales visuales.

El último es donde se infringen los derechos humanos de la libertad personal y la privacidad. Una de las cosas que me está gustando muchísimo de Chile es que ha empezado a definir modelos éticos de la IA.

-¿Esto tiene que ver con la protección de datos personales?

-Sí, pero también cómo se utilizan. El principio básico es proteger la libertad de las personas, pero también importa a qué datos tuvimos acceso para crear un modelo. Yo suelo decir que el algoritmo utilizado debería ser público, a través de un manifiesto de la Constitución.

Si yo voy a tomar decisiones sobre lo que está viendo una cámara para prender o apagar un semáforo, ese algoritmo debería estar en la Biblioteca Nacional para dar tranquilidad de cómo lo estamos usando.

Lo más leído