La industria financiera ya tiene casos de uso de inteligencia artificial y de IA generativa -generación de texto, audio, imágenes o videos a partir de una instrucción escrita (prompt)- en ámbitos como servicio al cliente (chatbot), combate al fraude y revisión de contratos. Y entre los últimos en emerger, están los agentes de IA de codificación capaces de generar código y ejecutarlo en forma autónoma.
En particular, el sector de las tecnologías financieras o fintech ha avanzado en la adopción de estos agentes de IA para codificación, pero al mismo tiempo están apareciendo retos normativos que marcan el ritmo de su despliegue y otros relacionados a los potenciales riesgos de la nueva herramienta.
“El mundo que imagino es que estos agentes van a estar comprando a otros agentes” (...) y para eso vamos a tener que darles acceso a nuestro dinero”.
Así señaló el cofundador, presidente y chief strategy officer de dLocal, Sergio Fogel, en conversación con DF, quien también afirmó que “antes de fin de año” se empezarán a ver a los primeros agentes de IA autónomos capaces de ejecutar pagos sin mediación humana.
Fogel fundó en 2016 dLocal, una empresa de tecnología financiera para facilitar los pagos transfronterizos, junto a Andrés Bzurovski. Cuatro años después, en 2020, la fintech alcanzó una valoración de más de US$ 1.200 millones, convirtiéndose en el primer unicornio de Uruguay. Desde 2021 cotiza en el Nasdaq y hoy opera en más de 40 países, con clientes como Amazon, Spotify, Microsoft y Didi.
Fogel, que será uno de los principales oradores del Chile Fintech Forum 2025 - organizado por FinteChile y que se realizará el 13 y 14 de mayo en Santiago- también se refirió a los riesgos y desafíos que traerá el uso de agentes para cometer fraudes financieros.
“Los primeros en hacer agentes autónomos van a ser los estafadores de fintech, no van a ser las empresas (...) Es un mundo nuevo, complejo, al que vamos a tener que adaptarnos como sociedad”.
- ¿Cómo ha irrumpido la IA en el mundo fintech? ¿En qué áreas se está aplicando?
- El impacto ha sido muy profundo, aunque no tanto como en otras industrias, porque fintech es un sector muy regulado. Cualquier innovación que se haga tiene que considerar cuál va a ser la actitud de los reguladores y auditores. Es una industria que requiere ir con pasos más cautelosos que otras. Por ejemplo, hay normas muy estrictas de lucha contra el lavado de dinero y crimen financiero, entonces, antes de automatizar un proceso tengo que validar con el auditor o el regulador. La seguridad va a estar por encima de la eficiencia en todo lo que es fintech.
En nuestro caso, por ejemplo, hay muchas cosas que veníamos usando desde antes de ChatGPT y la IA generativa. El caso casi de libro es la lucha contra el fraude, aquí, con inteligencia artificial supervisada, se mide el nivel de tolerancia entre falsos positivos y falsos negativos en grandes bases de datos de transacciones.También usamos IA supervisada para enrutamiento inteligente de transacciones, y otro caso que llamamos transaction screening, que permite escanear millones de transacciones y ver si son o no sospechosas, como posibles lavados de dinero.
- ¿Y en IA generativa hay casos más allá de servicio al cliente?
- En la industria se observa mucho el uso de chatbots conversacionales de atención al cliente. Nosotros, por ejemplo, también usamos IA generativa para revisión de contratos, pero una herramienta en particular que ha pegado un salto increíble y que estamos utilizando para desarrollo interno, son los agentes de codificación, como Cursor (de Anysphere), Lovable (de Lovable) o Devin (de Cognition AI). A estos les puedes decir “quiero integrarme con un nuevo medio de pago en Nigeria” y directamente genera el código, lo ejecuta, mira el resultado, detecta si tiene un error, se corrige a sí mismo y así va iterando hasta que funciona.
Agentes de pago y fraude
- ¿Qué otro tipo de agentes de IA autónomos se están explorando en la industria?
- Aún no he visto en el sector cosas como lo que puede hacer, por ejemplo, Operator de OpenAI (capaz de navegar, escribir, hacer click y scrolling, y ejecutar acciones en la web como lo haría un humano). Pero donde veo mayor impacto es que muy pronto, antes de fin de año, vamos a ver agentes capaces de ejecutar transacciones.
Y es más, el mundo que yo me imagino es que ese agente va a estar comprando a otro agente, y va a necesitar dinero para actuar porque va a tener que comprar, por ejemplo, APIs (sigla en inglés de interfaz de programación de aplicaciones) pagadas o adquirir distintos servicios.
Por ejemplo, si le dices hoy a Operator que quieres cocinar un pollo hindú y que los ingredientes los compre en tal supermercado, el agente va a buscar la receta, los ingredientes necesarios, entrará al supermercado y cuando llega el paso final dice “ok, hasta aquí llegué, haz tú el checkout”. Muy pronto ese checkout lo va a hacer el propio agente, lo que pasa es que ahí le tengo que dar acceso a mi dinero, y creo que el sector fintech va a ser un habilitador clave para eso. Me parece que ese es el próximo paso natural.
- ¿Ya se están probando métodos o tecnologías para dar acceso a dinero a los agentes autónomos?
- Sí, y hay dos posibilidades que se están hablando. Una es a través de tecnologías blockchain y criptomonedas como solana o bitcoin, y para eso se le otorgaría al agente, por ejemplo, una clave privada de blockchain.
La otra posibilidad que estamos explorando con muchas ganas, es darle una tarjeta de crédito que no va a ser mía, sino del agente. Esto abre un mundo de preguntas diferentes. Hoy las tarjetas de crédito, débito o de prepago están pensadas para una persona física. ¿A nombre de quién va a estar esa tarjeta? ¿Cómo se van a manejar los procesos de antilavado de activos? Nosotros lo estamos mirando como un posible camino de innovación para la industria.
- ¿Cuáles son los principales riesgos y desafíos para avanzar en la implementación de estos agentes de IA?
- El riesgo más grande que nos trae la inteligencia artificial es el fraude. Los estafadores están usando IA y la realidad es que hoy es muy fácil para ellos, por ejemplo, pretender ser una persona que no son y como industria tenemos que estar siempre un paso adelante de los estafadores porque hay un doble riesgo: que nos hagan fraude a nosotros o a nuestros clientes.
Y van a existir agentes autónomos de fraude. Un caso, por ejemplo, sería un agente estafando a mi madre por teléfono. Quizá podría tomarle dos años en trabajarla, hacerse amiga de ella, mandarle mensajes cuando está aburrida y convencerla, y luego un día le dice “María, somos amigas hace tanto tiempo. Necesito plata porque mi hijo está enfermo”. Somos mucho más vulnerables ante alguien que creemos conocer.
Los primeros en hacer agentes autónomos van a ser los estafadores de fintech, no van a ser las empresas. Vamos a tener que insistir en la educación al público sobre fintech, ser dinámicos, innovar, y estar siempre a la vanguardia. Es un mundo nuevo, complejo, al que vamos a tener que adaptarnos como sociedad.