Tech & Negocios
Theodora AI colaborará para detectar sesgos en LatamGPT, el modelo de lenguaje grande que se construye en Chile
La startup cerró un convenio con el Centro Nacional de Inteligencia Artificial para aplicar su tecnología para identificar y corregir hasta en un 90% los sesgos de género, edad, religión, entre otros, en los algoritmos del futuro LLM chileno.
Por: Equipo DF
Publicado: Martes 18 de marzo de 2025 a las 04:00 hrs.
María José Martabit (CEO) y Sofía Arrigoni (directora) de Theodora AI.
Theodora AI, la startup que creó una tecnología basada en inteligencia artificial (IA) para identificar y mitigar sesgos en textos, imágenes y algoritmos, cerró un convenio de colaboración para aplicar su tecnología en LatamGPT, el primer modelo de lenguaje grande (LLM, en inglés) desarrollado en Chile por el Centro de Inteligencia Artificial (Cenia) y el Ministerio de Ciencia. El modelo está siendo entrenado con datos nacionales y de Latinoamérica y que tendrá su primera versión en junio.
La cofundadora y CEO de Theodora AI, María José Martabit, explicó que utilizarán su API (sigla en inglés de interfaz de programación de aplicaciones) entrenada con distintos tipos de sesgos, como género, edad, discapacidad, nacionalidad, religión, lenguaje y orientación sexual; para mitigar estos factores desde la etapa de desarrollo del modelo, aplicando un enfoque de “ética por diseño”.
Martabit dijo que esto permitirá que el modelo se construya con parámetros éticos desde su origen, a diferencia de los otros sistemas conocidos, “que partieron trabajando y una vez en el mercado empezamos a ver los problemas y entonces se corrigen. Es extraordinario el esfuerzo que se está haciendo de aplicar estas nuevas tendencias globales de IA responsable, de ética desde el diseño”, comentó.
El proceso contempla el análisis de datos y métricas específicas para detectar patrones sesgados, con especial atención a los matices del español latinoamericano.
“Culturalmente hablando, nuestro lenguaje es muy distinto por país. Por ejemplo, hemos tenido reuniones con mujeres mexicanas que tienen expresiones que no entendemos, y es el mismo idioma. Esa diferencia del lenguaje cultural es importante entrenarla al inicio, de manera que el modelo vaya aprendiendo también por país”, subrayó.
Mitigación de sesgos
Martabit señaló que, hasta ahora, los principales LLM han sido entrenados con datos en inglés o chino, lo que “genera una falta de comprensión de lo que realmente se quiere transmitir y eso evidentemente perjudica a la región”.
Respecto de la efectividad del proceso, indicó que su tecnología permitiría reducir los sesgos en los modelos entre un 85% y 90%, aunque aún no es posible eliminarlos por completo.
También valoró el desarrollo de LatamGPT y añadió “que el punto central es mostrarle a miles de personas que desde Latinoamérica se pueden crear grandes proyectos tecnológicos”.