La inteligencia artificial (IA) ha permitido el desarrollo de sistemas capaces de asistir a los humanos en sus tareas laborales, mejorando la productividad. Sin embargo, su avance conlleva retos, entre ellos, la gestión de los sesgos asociados al entrenamiento de los modelos y los sesgos -de raza, género o edad, entre otros- que se traspasan a los algoritmos y su posible impacto en la percepción social y emocional de los usuarios.
Ese fue uno de los temas que planteó a DF -desde Silicon Valley, Estados Unidos- la directora senior de Ingeniería y Estrategia de Investigación en IA de Google, Pilar Manchón, quien será una de las oradoras clave del Singularity Summit Chile 2025, donde expondrá sobre ética e IA centrada en las personas. La experta reconoció que, pese a los avances, todavía persisten desafíos en la gestión de los sesgos algorítmicos asociados a la IA.
“Hay cosas que todavía estamos aprendiendo a gestionar. Entonces todavía tenemos parte de esos sesgos que siguen embebidos en los datos y que no son perfectos”.
“No estamos dejando pasar nada (sesgos) a propósito. Otra cosa es que no sepamos cómo gestionarlos, ¿No? (...) Hay cosas que todavía estamos aprendiendo a gestionar. Entonces todavía tenemos parte de esos sesgos que siguen embebidos en los datos y que no son perfectos”, afirmó la experta española.
Doctora en Lingüística Computacional de Stanford, Máster en Ciencia Cognitiva y Lenguaje Natural de la Universidad de Edimburgo (Escocia) y licenciada en Filología Inglesa de la Universidad de Sevilla (España), Manchón se ha especializado en inteligencia artificial, interfaces cognitivas, y en el desarrollo de tecnologías conversacionales que entienden el comportamiento humano y el lenguaje natural, impulsando sistemas de IA éticos, inclusivos y con relevancia cultural.
En 2005 cofundó Indisys, una startup pionera en agentes virtuales inteligentes, que luego adquirió Intel. Desde entonces, ha ocupado roles estratégicos en Amazon, Roku y hoy en Google, donde se dedica a la investigación y alineamiento de la IA con los valores humanos, y a la “proyección” de los desarrollos de la compañía “para que la gente lo entienda”.
Dimensiones intangibles
Para Manchón, uno de los mayores desafíos de la IA y los sesgos algorítmicos es encontrar mecanismos para medir dimensiones “intangibles y subjetivas” que antes “no tenían cabida” en la tecnología, como la salud emocional, la “inteligencia social” o la manera en que estos sistemas influyen en la percepción de la realidad.
“Hemos llegado a que la tecnología es capaz de emular comportamientos humanos complejos, y estos se enredan de alguna manera con cómo percibimos la realidad y cómo nos comunicamos con el medio”, señaló la investigadora.
En ese contexto, planteó que, para avanzar en la gestión ética de los sistemas de IA actuales, se deberán desarrollar nuevas métricas, en las que “todavía estamos trabajando”.
Manchón también enfatizó la necesidad de integrar la ciencia, la ética y las humanidades en los equipos de desarrollo, porque crear “un sistema sin saber a dónde quiere ir uno, desde el punto de vista humano, es absurdo”.
Colaboración humano-máquina
La investigadora de Google también abordó la integración de agentes de IA autónomos en entornos laborales y señaló que el desafío es construir nuevos modelos colaborativos humano-máquina que no estén pensados únicamente en base a la forma en que interactúan y se comunican los humanos, sino en “redes híbridas” donde hay humanos y máquinas “contribuyendo a ese formato de decisión o ese patrón de comportamiento”.
“Nuestro sistema cognitivo funciona como funciona, con lo cual este sistema nuevo tiene que ser compatible con nuestras propias necesidades y capacidades, pero no necesariamente tiene que estructurarse de la misma manera que si solo hubiera humanos involucrados en el proceso”, comentó.
La investigadora también señaló que “no hay que perder la noción de hacer las cosas de cara a nuestra humanidad, es decir, mantener siempre a la persona en el centro”.
Lenguaje y sur global
Manchón valoró “desde el punto de vista científico” iniciativas regionales como LatamGPT -el modelo de lenguaje grande desarrollado en Chile por el Centro Nacional de Inteligencia Artificial y el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación- debido a que, según la experta, no existen estudios concluyentes sobre cómo el predominio del inglés puede influir de manera negativa en la estructura y resultados de los modelos ante otras lenguas y culturas.
“Hay un fenómeno natural que, en función de las cuestiones geopolíticas, siempre ha habido una transferencia de unos idiomas a otros, pero en este caso puede que esa transferencia se vea multiplicada exponencialmente debido al uso de la inteligencia artificial con una perspectiva más anglosajona. Al menos desde el punto de vista científico, es un ejercicio interesante (LatamGPT)”, dijo.
Añadió que, para avanzar hacia una mayor soberanía tecnológica en la región, se requiere desarrollar estrategias nacionales de IA que incluyan infraestructura, conectividad, talento y recursos.
“Sin infraestructura no se puede realmente implementar, con lo cual es necesario empezar por los cimientos”, afirmó.