Click acá para ir directamente al contenido
Pilita Clark

Errores notables de la inteligencia artificial en 2025

Pilita Clark

Por: Pilita Clark

Publicado: Lunes 29 de diciembre de 2025 a las 04:00 hrs.

Pilita Clark

Pilita Clark

La gente acertadamente ya se está preocupando de que la inteligencia artificial (IA) puede llegar a ser suficientemente inteligente para destruirnos. Pero, ¿y si eso ya ha comenzado? Esta idea me surgió al revisar una lista que he estado elaborando con los errores más notables de la IA en 2025 o, para ser más precisos, de los humanos que se vieron perjudicados por el uso actual de inteligencia artificial descrita como relativamente básica.

Es posible que la tecnología sea inofensiva. Pero la lista sigue siendo un recordatorio de que nuestras cualidades tan humanas como la pereza, la codicia y la ambición nos convierten en presa fácil para ella. Esto es evidente en mi propia industria, donde el año comenzó con algunos usuarios de la aplicación de la BBC recibiendo la sorprendente noticia de que el gran tenista español Rafael Nadal a) se había convertido en brasileño y b) había revelado que era gay.

Pocas industrias se han librado del desacertado mal uso de esta inquietante tecnología.

Como informó la BBC, el resumen de noticias que contenía esta información falsa había sido generado por una función de IA que Apple había implementado para los usuarios de su último iPhone. El gigante tecnológico suspendió posteriormente la función, que también había emitido otras alertas falsas.

¿Qué tipo de presiones competitivas podrían haber llevado a su lanzamiento en primer lugar? Ésa es una pregunta que me hice unos meses después, cuando el periódico Chicago Sun-Times dijo que había tenido una “experiencia aleccionadora” después de presentarles a sus usuarios una lista de lecturas de verano que incluía recomendaciones de libros que, en realidad, no existían.

Como punto positivo, los errores de los periódicos rara vez te llevan al hospital. No se puede decir lo mismo de la información de IA que un hombre utilizó para reducir su consumo de sal y terminó hospitalizado.

En Australia, un abogado de alto nivel se disculpó ante un juez que presidía un caso de asesinato por presentaciones asistidas por IA que incluían citas ficticias y casos inexistentes.

Sospecho que hubo un suspiro de alivio entre los consultores cuando leyeron que Deloitte reembolsaría parcialmente el pago de un informe de US$ 290.000, plagado de errores, que realizó para el Gobierno australiano, producido parcialmente por IA.

No hay excusa para el ámbito en el que se han seguido produciendo algunos de los percances más notables de la IA este año: la política. “No votamos por ChatGPT” se ha convertido en un estribillo familiar del público desde que el primer ministro de Suecia, Ulf Kristersson, le dijo a un periodista que había consultado herramientas de IA para obtener una segunda opinión sobre ciertos temas. Otros han utilizado la IA en presentaciones que resultaron ser inexactas ante audiencias legislativas.

Pero la medida más difícil de comprender se produjo en Albania, donde el primer ministro presentó a una “ministra” generada por IA. Puede ser una medida simbólica, ya que la constitución del país exige que los ministros sean ciudadanos mayores de 18 años. Pero es desalentadora. Ya es bastante difícil entender tu posición con respecto a otro ser humano, especialmente con todas nuestras fallas y defectos. Pero como estamos aprendiendo rápidamente, con la IA es prácticamente imposible.

Te recomendamos