Ramón López de Mántaras, uno de los investigadores pioneros de la inteligencia artificial (IA) en Europa, será uno de los expositores del Congreso Futuro 2026, que se realizará entre el 12 y el 17 de enero en Santiago.
El doctor en Física y Computación español lleva medio siglo estudiando esta tecnología, es autor de más de 300 publicaciones y profesor de investigación emérito del Consejo Superior de Investigaciones Científicas (CSIC) de España. Un bagaje que lo ha llevado a criticar la narrativa triunfalista de la IA.
Respecto de la regulación de la inteligencia artificial afirmó que “tiene que ser estricta, pero bien hecha” con el mismo rigor que la industria farmacéutica, y criticó la Ley de Inteligencia Artificial de la Unión Europea (AI ACT) por la burocracia que conlleva.
- Su charla se llama “Desvelando la cara oculta de la inteligencia artificial”, ¿a qué se refiere?
- Voy a desmontar la narrativa triunfalista que rodea a la IA de que evolucionará hasta convertirse en una superinteligencia capaz de resolver todos nuestros problemas. Esa visión es errónea y simplista. Nos la venden, sobre todo las grandes tecnológicas de Silicon Valley, para valorizar sus acciones y atraer inversiones multimillonarias, aunque ni siquiera está claro que haya retorno.
Lo más preocupante es lo que hay detrás: entre 150 y 425 millones de personas trabajan invisiblemente para que estas IA funcionen. Depuran datos, etiquetan imágenes, corrigen textos, moderan contenido. La mayoría están en el sur global, sin derechos laborales ni protección, en condiciones de explotación y muchos están expuestos a contenido extremo -violencia, pedofilia, discursos de odio- durante sus jornadas (...) .
“Tendrían que haber organismos nacionales independientes que, antes de lanzar una IA al mercado, verifiquen que haya pasado por controles y filtros”.
Y a esto se suma el enorme consumo energético y de agua de los centros de datos, que en países como Chile ya están generando conflictos. Este lado oscuro de la IA -humano, ambiental y ético- es lo que voy a desarrollar.
- ¿Es posible crear una IA ética?
- La inteligencia artificial no es un agente moral, por tanto, no puede tener ética. Esta se aplica a las personas, no al software. Se han intentado dos aproximaciones para dotar a la IA de ética y ambas han fracasado: programar reglas éticas (enfoque top-down) y que aprendan observando a humanos (bottom-up), pero ninguna funciona. Los valores no son universales. Y lo más común no siempre es lo más ético.
- ¿Qué aproximación o límites se deberían seguir?
- Regular mucho y mucho más de lo que se hace ahora. Algunos dicen que esto va en contra de la innovación. Pienso que no, todo lo contrario, una buena regulación permite una innovación responsable, que beneficie a la sociedad en su conjunto. Si solo beneficia a cuatro o cinco, no es innovación.
- ¿Qué se deberían regular más?
- Se tendría que obligar a los desarrolladores a controlar estrictamente los guardarraíles (mecanismos de seguridad) de estos sistemas. Seguro que tienen la manera de hacerlo, pero va en contra de su negocio porque lo que quieren es que se use mucho.
No se puede permitir que sea tan fácil saltarse los guardarraíles de estos chatbots. Eso está mal regulado y hay que regular, pero de forma drástica. Y si no, pues que esta empresa tenga que retirar sus chatbots, con una institución independiente que lo verifique.
Regulación
- Usted ha destacado los avances de la regulación europea. Otros países, como Estados Unidos, tienen marcos flexibles. ¿Qué modelo es adecuado para equilibrar la innovación, seguridad y derechos de las personas?
- La regulación tiene que ser estricta, pero bien hecha. Y la europea tiene un problema, lleva consigo una enorme cantidad de burocracia, lo que complica mucho las cosas. Hay empresas, con muy buena fe, que quieren cumplir con la ley, y quizás incluso no saben cómo hacerlo, porque es enrevesada y compleja. Hay que hacer algo mucho más claro, sintético y comprensible.
Por eso digo: regular bien. Eso no significa más volumen de páginas ni más prohibiciones, sino analizar qué es lo que realmente hay que hacer. No se ha hecho mucho y hay cierta precipitación. Apareció la IA generativa y los pilló desprevenidos, porque ya tenían la ley casi cerrada y tuvieron que retrasarla y modificarla e incorporar nuevas cosas.
Por ejemplo, los alimentos o los medicamentos pasan por una serie de controles muy estrictos antes de salir al mercado. Tendría que haber algún tipo de organismos nacionales independientes que, antes de lanzar un producto de IA, verifiquen que ha pasado por controles y filtros y que se han tenido en cuenta los posibles sesgos, las posibles desinformaciones o falsedades, y el impacto potencial del uso de esa IA.
- ¿No le preocupa que por esta burocracia Europa quede detrás de EEUU y China?
- No. Esta supuesta carrera es falsa. Sacan un modelo de lenguaje que supuestamente mejora no sé qué, y a los 15 días ya hay otro que también lo mejora. Todo el mundo está haciendo lo mismo. Aquí no hay una fórmula secreta como la de la Coca-Cola.
Esta idea de una carrera armamentística es completamente absurda. Todos están más o menos haciendo lo mismo. Es conocido que el verdadero cuello de botella está en quién tiene más acceso o capacidad para comprar cientos de miles de GPU a Nvidia, AMD o a los fabricantes de chips. Esa es la clave. Por eso Nvidia es la única de todas estas empresas que realmente está ganando dinero con la IA.