La fascinación inicial por la Inteligencia Artificial Generativa (IAG) ha dado paso a una etapa más exigente. Lo que comenzó como una promesa de eficiencia hoy tensiona uno de los pilares del derecho, y de las sociedades modernas: la confianza. Las “alucinaciones” algorítmicas —citas inexistentes o erróneas— se han convertido en un riesgo concreto en procesos judiciales, y su recurrencia comienza a marcar una tendencia global.
En Nueva York, el caso Mata vs. Avianca marcó un punto de inflexión, con sanciones a abogados por presentar jurisprudencia inexistente generada mediante ChatGPT. En Missouri, en Kruse vs. Karlen, una corte de apelaciones desestimó una presentación por deficiencias graves, incluyendo referencias inexistentes. En Canadá, el caso Zhang vs. Chen derivó en que la Corte Suprema de Columbia Británica ordenara a una abogada asumir personalmente los costos asociados a un escrito con precedentes ficticios. Recientemente, el Tribunal Superior de Justicia de Canarias sancionó a un abogado por incluir múltiples referencias falsas generadas por IA. En paralelo, en Estados Unidos se ha abierto un frente distinto: una demanda presentada en Illinois acusa a OpenAI de facilitar el ejercicio no autorizado de la profesión, luego de que una persona, asistida por su sistema, elaborara y presentara escritos judiciales sin intervención de un abogado.
“Durante décadas, la práctica jurídica ha operado sobre una premisa silenciosa: que lo que se cita, existe. Hoy ese supuesto deja de ser evidente. La tecnología permite producir textos plausibles y coherentes en su forma, pero muchas veces lejanos de una base verificable”.
Chile no es la excepción. En febrero de 2026, el Segundo Juzgado Civil de Concepción sancionó a un profesional por presentar jurisprudencia inexistente. La reiteración de estos episodios revela un patrón que trasciende jurisdicciones y expone una falencia más profunda: la verificación de fuentes.
Durante décadas, la práctica jurídica ha operado sobre una premisa silenciosa: que lo que se cita, existe. Hoy ese supuesto deja de ser evidente. La tecnología permite producir textos plausibles y coherentes en su forma, pero muchas veces lejanos de una base verificable.
Frente a este escenario, organizaciones como la International Bar Association y la American Bar Association han propuesto directrices para regular su uso. Los riesgos identificados destacan los sesgos, la opacidad de los modelos, la exposición de información confidencial y la dependencia acrítica de sus resultados.
Este estándar adquiere especial relevancia en Chile ante la entrada en vigencia de un nuevo marco en protección de datos personales. La exigencia de responsabilidad proactiva eleva el umbral: incorporar estas herramientas deja de ser neutro y sus efectos son atribuibles.
Más allá del ámbito legal, la incorporación de inteligencia artificial sin estándares claros en áreas especialmente sensibles —como el desarrollo de armamento o tecnologías bélicas— introduce riesgos de una magnitud difícil de dimensionar.
En algunos países, la respuesta ha sido no restringir el uso de estas herramientas, dejando su adopción al arbitrio de empresas y usuarios, sin control. Sin embargo, cuando los riesgos potenciales alcanzan a la sociedad en su conjunto, reaparece una tensión clásica: el equilibrio entre libertad y seguridad.
Esta tensión no se resuelve prescindiendo de la tecnología, sino diseñando las reglas bajo las cuales se integra. Sin ese marco, la promesa de autonomía se vuelve frágil y riesgosa. Con él, en cambio, es posible ampliar capacidades sin comprometer la confianza.
Instagram
Facebook
LinkedIn
YouTube
TikTok