Laurence Devillers, profesora de Ciencias de la Computación de la Universidad París-Sorbona: “Lo que ha hecho Trump, decir que desregulemos todo, es una pesadilla”
La experta en IA generativa y riesgos éticos, se define como una tecno optimista, pero advierte los problemas que podría traer el desarrollo sin límites de esta tecnología, como la manipulación de usuarios, confundir a las máquinas con humanos y sus aplicaciones, por ejemplo, en ciberseguridad.
Por: Alejandra Rivera
Publicado: Jueves 23 de enero de 2025 a las 04:00 hrs.
Foto: Octavio Cordova
Noticias destacadas
La PhD en Computer Science de la Universidad de Paris-Sud y profesora de Ciencias de la Computación de la Universidad de París-Sorbona, Laurence Devillers, es experta en computación afectiva en el ámbito de la interacción humano- robot, una temática que la ha llevado a investigar los aspectos éticos involucrados.
Devillers participó por segunda vez como oradora en el Congreso Futuro 2025 que se realizó la semana pasada. En 2024 habló de la interacción humano- robot y este año en su charla, “IA generativa y chatbot: cuestiones éticas”, profundizó en los riesgos asociados a la inteligencia artificial generativa, aquella capaz de crear nuevos contenidos -texto, audio o video- a partir de una instrucción (prompt) de texto, como ChatGPT de OpenAI.
“Existe el riesgo de que las personas confundan la máquina con un ser humano. Para mí, una explicación es que es una caja muerta, porque hay muchas personas involucradas en este campo, aunque no podamos explicarlo todo”.
Tras su conferencia, en entrevista con DF abordó los aspectos éticos que rodean al desarrollo de la IA generativa y a los nuevos agentes de IA, como los sesgos algorítmicos y la influencia de los grandes modelos de lenguaje en los humanos. También criticó la intención del presidente de Estados Unidos, Donald Trump, de desregular la industria tecnológica.
“Lo que ha hecho Trump, decir que desregulemos todo, es una pesadilla” y agregó que su principal preocupación es Elon Musk, porque es “un auténtico transhumanista que no tiene límites”.
- ¿Cómo ve la evolución de la IA generativa a los agentes de IA, capaces de ejecutar acciones?
- Los agentes autónomos son un tema enorme. En mi charla hablé de la IA generativa y estos chatbots. Los últimos algoritmos para chatbots utilizan objetivos. Así que le damos un objetivo a la máquina, y esta puede usar una gran cantidad de datos. Por lo tanto, puede resolver muchas cosas, pero no es IA general o AGI (IA hipotética capaz de imitar las habilidades intelectuales de los humanos), porque no tiene conciencia y no tiene una intención real, solo un objetivo que le da un ingeniero.
- ¿Ve lejano el desarrollo de la IA general?
- Estamos muy lejos si usamos este tipo de tecnología. La IA generativa no es la última que tendremos en inteligencia artificial. La próxima tendrá objetivos, y tal vez, como mencioné en mi charla, algo de información sobre el contexto espacio temporal, porque la máquina, con ese tipo de datos, puede construir un modelo de sentido común. Y esto es mucho más poderoso para desarrollar algo que permita a la máquina razonar. La nueva máquina será híbrida entre IA generativa y una IA más tradicional basada en ejemplos.
En su charla en el Congreso Futuro 2025, la experta señaló que los cambios sociales y económicos derivados de la IA generativa y chatbots conllevan riesgos. Entre ellos, la manipulación de usuarios sin responsabilidad, pues la IA generativa “puede mentir sin intención”; afectar el multilingüismo y la diversidad cultural; proyectar cualidades humanas en las máquinas; afectar la educación y el aprendizaje humano; e incrementar el consumo energético.
“El sesgo no es un problema porque siempre hay sesgo. Es imposible construir una máquina sin sesgo (...) Entonces debemos evitar ciertas aplicaciones, como el death bot (bot muerto), aquellas que buscan imitar a las personas”
Aun así, se define como una tecno optimista, por el potencial de los robots para ayudar a los humanos.
- ¿Cuáles son los principales problemas éticos asociados a la IA generativa?
- Existe el riesgo de que las personas confundan la máquina con un ser humano. Para mí, una explicación es que es una caja muerta, porque hay muchas personas involucradas en este campo, aunque no podamos explicarlo todo. Conocemos el concepto, sabemos cómo se entrena la máquina, pero no puedo explicar cómo ciertos parámetros contienen este tipo de información. Sin embargo, sé cómo aprende, y por eso digo que no hay inteligencia en ese sentido. Es estadístico.
Y aunque llegamos matemáticamente a diseñar ciertas cosas, hay mucho de aleatoriedad. Y no es tan fácil decir que el problema está relacionado con esto o con los datos con que se entrenó el modelo, porque nuestros datos no son estables y hay muchos sesgos y discriminación. La máquina aprende lo que le damos. Mi principal preocupación es la aplicación, por ejemplo, en ciberseguridad.
- ¿Se pueden evitar o corregir los sesgos algorítmicos?
- El sesgo no es un problema porque siempre hay sesgo. Es imposible construir una máquina sin sesgo. Estamos construyendo algo que no es neutral. Google construyó un modelo tratando de evitar la discriminación, que solo apareciera gente blanca, pero finalmente obtuvieron lo contrario, y todas las imágenes que la máquina dibujaba eran negros o de otros orígenes étnicos. Es muy difícil poder modificar el resultado del sistema debido a los datos. Entonces, debemos evitar ciertas aplicaciones, como el death bot (bot muerto), como aquellas que buscan imitar a las personas.
- ¿Las gigantes tecnológicas tienen mecanismos para evitar el impacto de los sesgos en las personas?
- No tienen responsabilidad legal, porque las personas firman un contrato para usar la máquina. Pero tienen responsabilidad, por supuesto. Por ejemplo, en EEUU un adolescente de 14 años usó Character AI, una compañía nueva, donde puedes crear, hablar o tener una relación con un personaje, por ejemplo, de Juego de Tronos. El adolescente se enamoró del personaje y se suicidó. Hay una línea que dice “evitar el suicidio”, pero en la práctica no es así. Y hoy la principal patología es la depresión y la soledad. Entonces, lo que ha hecho Trump, decir que desregulamos todo, es una pesadilla.
- ¿Cómo ve la dupla Trump-Musk y qué impacto puede tener en la industria tecnológica?
- Elon Musk es muy inteligente, pero también es un transhumanista. Él multiplica la fortuna por cuatro, es un hombre de negocios. Ahora está con el Presidente de EEUU y está trabajando en cosas increíbles. Prometió ser eficiente y tener menos gente involucrada en el Gobierno. Él ve la oportunidad y no tiene límites ni tampoco lógica. En cambio, la lógica de Trump es económica. Creo que chocarán y no estará mucho tiempo en el Gobierno.
-La UE cuenta con regulaciones en torno a la IA y a la protección de datos, pero EEUU tiene a las grandes tecnológicas. ¿Los modelos de IA generativa y la información falsa de las redes sociales pueden afectar a los europeos?
- En EEUU hay demasiadas historias de suicidios y otras cosas horribles, por lo tanto, el pueblo estadounidense le dirá a Trump, “no juegues con nuestros hijos”. El problema está dentro de ese país.
En Europa somos más prudentes, más preocupados por la sociedad, la humanidad, los derechos, la unidad de lo humano y demás. Mucha gente que conozco ha sido bastante golpeada por X y ya no está en esa red social. Muchas personas se salen. Si siguen así, no habrá más gente en Francia o en Europa en este tipo de red. Podemos hacerlo, los consumidores tenemos mucho poder en Francia.
- En febrero París será sede de la Cumbre de Action de la IA. ¿Qué expectativas tiene?
- Ninguna. Me gusta este Congreso Futuro de Chile, porque están preocupados por los derechos humanos, la dignidad humana, y tratan de darle sentido a esto. En París no es el caso. Es solo cooperación económica. Me reuní en dos ocasiones con el Presidente (Emmanuel) Macron, él quiere que las grandes empresas vayan a Francia. ¿Cuál es el resultado? Todos nuestros mejores investigadores están involucrados en estas grandes tecnologías. Y no es para nosotros.
Pero ahora tenemos una estrategia de economía con esta gran tecnología y la oportunidad durante cuatro años de construir algo que sea soberano con nuestra plataforma.
En el verano, Microsoft tuvo un problema con el módulo de seguridad cibernética y todo se detuvo en el mundo. De acuerdo, dependemos de esta tecnología. Y si Trump decide que desregulemos ¿Qué haremos con eso? Nada.
Ahora es el momento de ser conscientes de todos estos riesgos y hacer algo más. En Francia, hemos construido algunas cosas interesantes en términos de instituciones, pero no hemos hecho nada por la educación. Es una pesadilla, porque el talento futuro de los ingenieros debería ser más consciente de este problema ético y también del ecológico. Nos perdemos muchas cosas porque la educación no está al nivel.
Te recomendamos
ARTICULOS RELACIONADOS
Newsletters
LO MÁS LEÍDO
Empresa de griferías vinculada a la familia Pavez compra propiedad industrial en Colina en US$ 18 millones
El inmueble fue ocupado por la gigante brasileña Tigre, que cerró sus operaciones en Chile en 2024. Su nuevo dueño es Mosaico, que busca sumar nuevas categorías del rubro de terminaciones.
Martín Acero, socio director de PPU: “El desafío de la firma es la transición generacional”
El socio director del estudio de abogados iberoamericano señaló que en el transcurso de los próximos cinco años se verá un cambio importante en los liderazgos de la organización, para el cual están preparándose.
Felipe Harboe: “Las empresas que compran servicios de clipping deben exigir a las agencias que cumplan la ley, de lo contrario podrían estar participando de un ilícito”
El abogado dijo que tanto las firmas que recortan noticias de prensa y las comercializan, como los compradores, podrían arriesgar multas de hasta UTM 1.000 y penas de 61 días a 540 días de cárcel.
Industria de administradoras de fondos de inversión creció 23,5% el año pasado y anota récord de activos gestionados por US$ 43.853 millones
La nueva presidenta de la Acafi, María José Montero, aseguró que el desafío para aumentar la participación de institucionales es “de diseño del sistema”.
David Oddó, director del Trabajo: “Son muchas las materias que tienen un impacto en el mundo del trabajo que estamos revisando”
La autoridad profundizó en los primeros dictámenes sobre 40 horas, y recalcó que con ellos el servicio está respetando lo planteado en la norma. Y adelantó que se analizan más pronunciamientos interpretativos.
Grupo Alemana remodela estructura corporativa y altos ejecutivos de la clínica pasarán a administrar todo el conglomerado
Cristián Piera, histórico gerente general de la clínica de Santiago ocupará esa posición para todo el grupo, quedando también bajo su alero la isapre Esencial, los seguros y los prestadores de regiones.
BRANDED CONTENT
En “Es el momento”, el rider del Team Santander abre su historia y recorre el camino que lo llevó a la élite del ciclismo de montaña
Y como parte de esta conversación, extiende una invitación abierta a toda la comunidad a ser parte de un gran evento llamado “Desafío Gran Santiago y Cicletada Familiar ”
Dra Susan Bueno y el impulso que la mueve a avanzar, investigar y aportar a la sociedad.
Su curiosidad temprana la llevó a estudiar las enfermedades infecciosas y a contribuir en el desarrollo de la primera vacuna aplicada masivamente en Chile contra el Covid-19. Hoy, la Dra. Susan Bueno, reconocida en 2024 como inventora del año, continúa aportando desde la investigación al fortalecimiento de la salud. Mira aquí su entrevista
Instagram
Facebook
LinkedIn
YouTube
TikTok