En diciembre de 2024, el CEO de Microsoft, Satya Nadella, dijo que “todas las aplicaciones -software- empresariales colapsarán” en la era de los agentes autónomos de inteligencia artificial (IA), aquellos capaces de ejecutar tareas y gestionar flujos de trabajo completos. A inicios de febrero, la expansión de Claude Cowork, el agente de IA de Anthropic, empezó a mostrar estas señales al generar millonarias pérdidas de valor de mercado en empresas de software de gestión legal, de análisis financiero y de servicios de datos profesionales.
La respuesta está en sus nuevas prestaciones. A fines de enero, Anthropic lanzó nuevos plugins (funcionalidades extendidas) para Claude Cowork, ampliando sus capacidades agénticas para crear flujos de trabajo personalizados, automatizar procesos y ejecutar tareas especializadas, como análisis de riesgos en documentos legales.
Este agente es capaz de ejecutar acciones directamente en el escritorio del usuario, con acceso a archivos y aplicaciones locales, lo que reduce la dependencia de sistemas tradicionales -como los ERP (planificación de recursos empresariales)- para ciertas tareas de gestión de información y operación diaria. Incluso, puede interactuar con servicios externos, como herramientas de análisis, de gestión de relaciones con clientes o con los mismos ERP.
La directora de empresas y experta en IA, María Francisca Yáñez, destacó la importancia de los software de gestión tradicionales porque “están en el núcleo transaccional más crítico, son parte del ADN operativo de una empresa”, y dijo que aún existe incertidumbre sobre si los agentes van a desplazar o complementar el rol de estos sistemas.
“Las compañías grandes no van a apagar sus ERP de un día para otro. El mercado reacciona más rápido que la capacidad de adopción de las organizaciones. Históricamente los software corporativos tienen una historia de negocio de tanto valor a nivel de datos, que lo obvio sería que tuvieran una reacción y embebieran IA en sus soluciones”, comentó.
En esa línea, indicó que los software tradicionales tendrán un “pivoteo” en sus modelos de negocio e integrarán “capas agénticas”, ampliando la oferta de mercado y generando “presión” en los costos, lo que abriría más oportunidades de adopción a pequeñas y medianas empresas (PYME).
“Las grandes compañías van a adoptar agentes de manera complementaria al ERP. La variable costo es una, pero también deben evaluar compliance (cumplimiento normativo), trazabilidad, gobernanza y capacidad de auditar los sistemas. Y hoy los agentes de IA no tienen ese nivel de madurez. (...) Quizás algunas PYME o algunos actores del mercado van a tomar riesgos de adoptar antes”, dijo Yáñez.
Nuevo rolEl socio líder de IA, Ingeniería y Datos en Deloitte, Martín Cabrera, dijo que el principal cambio que introducirán los agentes es el desplazamiento “gradual” del rol humano de la ejecución hacia la supervisión, donde la interacción con los ERP y software tradicionales será, “de forma irreversible”, a través de agentes en nombre del usuario.
“Habrá capas que permitirán a estas soluciones agénticas integrarse de manera cada vez más segura y escalable (a los software), y puede que en algún momento la forma de explotar estas plataformas sea mucho más masiva a través de IA que de personas”, afirmó.
Dijo que en procesos críticos, como el cierre contable del año, las empresas seguirán optando por soluciones tradicionales y “conocidas”, pero de forma más automatizada, “gatilladas por la IA”.
Cabrera advirtió que aún hay un bajo nivel de preparación en las compañías para adoptar esquemas de trabajo agénticos y que la transición hacia roles humanos de supervisión “no es natural” y tomará tiempo, mientras que en muchas organizaciones la información no está suficientemente estructurada para ser “explotada” de forma segura por estos agentes autónomos.
Desafíos
Yáñez señaló que este nuevo modelo obliga a las empresas a definir los límites de autonomía que tendrán los agentes y en qué procesos podrán operar, considerando riesgos como alucinaciones (resultados incorrectos o inventados) en la ejecución de tareas o en la seguridad del uso de credenciales e identidad digital de los usuarios.
“Es un tiempo de experimentar -con los agentes-, pero en actividades de bajo riesgo”, comentó.
Por su parte, Cabrera advirtió que los modelos de IA son “muy fáciles de persuadir”, y que si un ataque de ransomware (secuestro de datos) toma control de la terminal del usuario donde está corriendo un agente, “podría empezar a pedirle al agente de IA que haga prácticamente cualquier cosa y, lo peor de todo, que lo realice en nombre del usuario”.
Agregó que el despliegue masivo de estas herramientas requiere definir políticas de uso seguro y de gobernanza, y establecer mecanismos que permitan auditar y trazar las acciones que ejecuta la IA.