Click acá para ir directamente al contenido
Pilita Clark

¿Problemas en el trabajo? Mi chatbot te contactará

Pilita Clark

Por: Pilita Clark

Publicado: Lunes 7 de julio de 2025 a las 04:00 hrs.

Pilita Clark

Pilita Clark

Dicen que nunca pasa nada gracioso en LinkedIn, y en mi experiencia, tienen razón.

Pero el otro día, un compañero me mostró una publicación de un hombre llamado Chris que decía que había empezado a unirse a las reuniones en línea 30 segundos antes, para que los asistentes de notas de inteligencia artificial (IA) que ahora se usan para transcribir las reuniones virtuales lo grabaran discretamente. Entonces empezó a gritar que estaba en el Titanic, que acababa de chocar contra un iceberg, y que necesitaba ayuda urgente, antes de continuar con normalidad durante el resto de la reunión.

“Al terminar la reunión”, escribió, “todos reciben una transcripción por correo electrónico con el resumen de la IA: “Chris chocó contra un iceberg, quedó atrapado en un barco que se hunde y actualizaciones generales de precios del segundo trimestre’”.

Una avalancha de quejas generadas por IA está creando molestias injustificadas para los departamentos de recursos humanos y de atención a clientes.

Disfruté esta historia y espero que tenga mucho éxito, ya que por fin alguien podría haber encontrado un buen uso para la IA en la oficina. Obviamente, constantemente me informan sobre el último “caso de uso” en el “espacio de la IA” que hará que la vida laboral sea más productiva, eficiente y optimizada.

En las manos adecuadas, la inteligencia artificial puede ser claramente una fuerza para el bien común. Pero a menudo me encuentro con personas como Sarah Harrop, que saben lo grave que puede ser en las manos equivocadas. Harrop es socia laboral en el bufete Addleshaw Goddard de Londres, que se ocupa de las demandas por despido improcedente, discriminación y otras formas de maltrato.

Desde la llegada de ChatGPT, ella afirma que se ha producido un aumento notable en el número de correspondencia mucho más extensa y aparentemente creíble dirigida a los departamentos de recursos humanos y a los tribunales laborales. Los documentos suelen contener referencias a precedentes legales y otras referencias, que no siempre son precisas, pero que requieren horas para su análisis.

“Hemos visto ejemplos de docenas y docenas de correspondencia que se han enviado al tribunal laboral”, me comentó. La complejidad de los documentos y la velocidad con la que se generan sugieren que, casi con toda seguridad, son producidos por robots y no por humanos, afirmó, añadiendo que esto genera una “presión considerable” para los empleadores y los tribunales.

Me imagino perfectamente lo tedioso y costoso que esto puede ser para los empleadores, y estoy segura de que no son los únicos afectados. La semana pasada mencioné las observaciones de Harrop a algunas personas y enseguida aprendí que los empleados no son, ni mucho menos, los únicos que utilizan la IA para impulsar quejas.

Un hombre que ha sido director escolar durante muchos años comentó que el volumen y la intensidad de las quejas de padres, casi con toda seguridad asistidas por IA, se habían disparado en los últimos 18 meses. Las quejas solían estar bien redactadas e incluían referencias convincentes que las hacían difíciles de ignorar, aunque las más largas invariablemente resultaban ser engañosas.

No creo que esta situación vaya a mejorar pronto. Internet está inundado de sitios web que ofrecen aprovechar el poder de la IA para generar quejas contundentes y bien redactadas. Probé un sitio en línea diseñado para empleados diciéndole que quería una carta sobre hasta qué punto los baños para hombres superaban en número a los de mujeres en una gran oficina que visité recientemente. En cuestión de segundos, emitió una acusación enérgica, gramaticalmente correcta y desconcertantemente persuasiva sobre lo que denominó un acuerdo injusto y discriminatorio que “da una impresión negativa y potencialmente poco profesional” a las clientas.

No voy a negar que esto provocó una oleada de gratitud y la comprensión de que debe haber muchas ocasiones en las que una queja asistida por IA está justificada. Productos de mala calidad, multas de estacionamiento injustas y empleadores malintencionados son, sin duda, motivos para una carta de queja manipulada.

Pero un mundo en el que los encargados de gestionar las quejas están abrumados por una avalancha de verborrea generada por IA de dudosa legitimidad no es un buen mundo. ¡Qué tentador debe ser pasarse al lado oscuro simplemente usando IA para responder! No creo que lleguemos al punto de dejar que los bots discutan entre ellos y nos respondan cuando terminen. Pero, ¿podemos asegurar que nunca lo haremos?

Te recomendamos