A principios del mes pasado, los 1.500 empleados de un bufete de abogados británico llamado Shoosmiths recibieron una noticia inesperada. El bufete había creado un fondo de bonificación de 1 millón de libras que se repartiría entre los empleados, siempre que utilizaran conjuntamente Microsoft Copilot, la herramienta de inteligencia artificial (IA) generativa elegida por el bufete, al menos un millón de veces durante este ejercicio.
En otras palabras, tenían 12 meses para acumular suficientes instrucciones de Copilot entre todos para ganar el millón de libras.David Jackson, su director ejecutivo, no creía que sería demasiado difícil. Y, como les señaló a sus compañeros, el objetivo de 1 millón de libras se alcanzaría fácilmente si todos usaran Copilot solo cuatro veces por día laborable. Para facilitar la tarea, el bufete monitorearía e informaría públicamente sobre el número de instrucciones cada mes, con el fin de impulsar el uso de lo que Jackson llamó el “poderoso facilitador” de la IA.
Las empresas deben buscar maneras de fomentar abiertamente la adopción de la inteligencia artificial, en lugar de que los trabajadores mantengan su uso “en la sombra”.
No me enteré de la iniciativa de Shoosmiths por parte de Shoosmiths, sino por dos académicos de la escuela de negocios HEC de París, Cathy Yang y David Restrepo Amariles. Lo detectaron mientras se preparaban para publicar una investigación relevante y reveladora sobre las formas muy humanas en que Copilot, ChatGPT y otros productos de IA generativa se utilizan en la oficina.
Su trabajo muestra algo que tiene mucho sentido, pero que es inquietante. Es posible progresar en el trabajo si utilizas IA, siempre y cuando no se lo digas a tu jefe. Y, además, es poco probable que tu jefe sepa si has utilizado IA o no. Los investigadores descubrieron esto tras analizar por qué tantas empresas se han mostrado tan reticentes a implementar la IA, a pesar de las aparentes mejoras de productividad que ofrece.
En un experimento, les pidieron a 130 directivos de nivel medio de una gran consultora anónima que evaluaran una serie de informes recopilados por dos analistas júnior. Eran los típico documentos elaborados para clientes potenciales que buscaban consultores para un proyecto. Algunos se elaboraron con la ayuda de ChatGPT y otros no. Los gerentes no tenían ni idea de cuál era cuál. Si bien el 77% de sus evaluaciones indicaron correctamente que se había utilizado ChatGPT, esta cifra se acercaba al 73% que indicó incorrectamente que se había utilizado ChatGPT cuando no era así. Además, incluso cuando se les dijo que definitivamente no se había utilizado IA, el 44% seguía pensando que sí.
El hallazgo que me llamó la atención es éste: la calificación que los gerentes otorgaron a los informes realizados con ChatGPT fue casi un 10% superior a la de los realizados solamente por personas.
Cuando los gerentes se enteraron del uso de IA, bajaron su calificación, quizás asumiendo que los analistas habían dedicado menos tiempo a su trabajo.
Esto sugiere que, a menos que trabajes para una organización que fomente el uso transparente de la IA, podrías estar fuertemente motivado a usarla a escondidas. El problema de esta “adopción en la sombra”, como los investigadores denominan al uso no revelado de la IA en el trabajo, es que expone a la organización a graves riesgos, como brechas de seguridad.
Varias empresas han restringido en ocasiones el acceso a las herramientas de IA por temor a que el personal pueda filtrar inadvertidamente datos confidenciales al introducir información en las plataformas que luego llega a usuarios externos.
También existe el problema de que el personal puede depositar demasiada confianza en herramientas de IA generativas que tal vez produzcan resultados sesgados o inventen “alucinaciones”. Además, supervisar a los empleados para ver quién utiliza o no la IA puede generar quejas sobre vigilancia intrusiva.
Para evitar todo esto, los investigadores del HEC creen que las empresas deberían elaborar directrices sobre el uso de la IA que animen a los empleados a usarla abiertamente.
Dado que su estudio muestra que es probable que el personal sea rebajado al admitir su uso de IA, también recomiendan algún tipo de incentivo para fomentar la divulgación del uso de IA como el pago de bonificación por el uso de cada instrucción de 1 millón de libras del bufete de abogados Shoosmiths.
“Es un incentivo muy inteligente, ya que requiere que la gente reporte sus instrucciones”, afirma Restrepo Amariles.
Shoosmiths afirma que la bonificación se creó porque la firma cree que la IA es fundamental para su competitividad futura y quiere impulsar su uso. Hasta el momento, las instrucciones de Copilot van “en general bien encaminadas” hacia el objetivo de 1 millón, afirma Tony Randle, socio a cargo de la tecnología de cara al público.
“Tenemos un socio que la ha usado 800 veces en el último mes”, afirma, con aire complacido. “La IA no reemplazará a la profesión jurídica, pero los abogados que la usan reemplazarán a los que no la usan”.