En los últimos meses, algunos tribunales argentinos debieron dictar resoluciones respecto de escritos judiciales en los que los abogados intervinientes habían incluido citas de jurisprudencia que, posterior a una revisión por parte del tribunal, resultaron ser falsas o inexactas, probablemente generadas mediante la utilización de herramientas de IA. De alguna manera, lo que se estaba discutiendo principalmente en tribunales de los Estados Unidos ahora debe analizarse en Argentina, analizándose de forma incipiente la responsabilidad de los abogados respecto del uso de tecnología de IA.
Esta discusión tuvo lugar en tres casos en jurisdicciones diferentes (Cámara de Apelaciones en lo Civil, Comercial, Familia y Minería de General Roca; Sala II de la Cámara Civil y Comercial de Rosario; y la Sala I de la Cámara Civil y Comercial de Morón).
En todos los casos, los tribunales notaron que los escritos presentados por las partes incluían citas a fallos que no existían o no coincidían con lo que se transcribía. En algunos casos, directamente no era posible encontrar los precedentes en los distintos buscadores de jurisprudencia. Por ejemplo, en el caso “Giacomino”, la Cámara de Apelaciones de Rosario ordenó una medida para mejor proveer qué consistió en verificar las citas y pedir explicaciones al abogado en cuestión, quién reconoció de forma expresa haber usado una herramienta de IA para preparar y reforzar su planteo. Por otro lado, en “M.J.L.”, el tribunal dictó una medida similar, pero las distintas partes no aclararon si habían usado herramientas de IA en la preparación de las presentaciones cuestionadas. Y, por último, en “Acevedo”, aunque en esta oportunidad no se requirió que los abogados presenten algún tipo de explicación, el tribunal concluyó que por cómo estaban redactadas las presentaciones, que también se había utilizado herramientas de IA.
Frente a esta situación, los jueces coincidieron en que los escritos se habían preparado con apoyo en herramientas de IA, lo que por sí solo no es objetable, pero sin un control profesional adecuado. Esto generó una discusión sobre los alcances de la responsabilidad profesional frente al uso de estas herramientas. Sobre esto último, los tribunales recordaron que, aun actuando de buena fe, presentar escritos que citen jurisprudencia inexistente atenta contra principios esenciales de la profesión, incluyendo la probidad, lealtad, veracidad y buena fe, todos previstos en los códigos de ética de las distintas jurisdicciones argentinas.
En los casos concretos bajo análisis, los tribunales resolvieron no aplicar sanciones directas a los abogados. Sin embargo, sí consideraron necesario dar intervención a los colegios profesionales de las distintas jurisdicciones, con el objetivo de advertir sobre los riesgos y responsabilidad que existe al utilizar herramientas de IA y, al mismo tiempo, impulsar un debate más amplio sobre un uso responsable de la IA en el ejercicio profesional.
De manera clara, en todos los casos se destacó que el problema no es el uso de la IA en sí mismo―cuyo potencial como herramienta de apoyo es indiscutible―sino utilizarla sin la verificación posterior que demanda toda responsabilidad profesional. Subrayaron además que ya es ampliamente conocido que estas tecnologías suelen “alucinar”, es decir, generar información que parece real, pero no lo es, citar fuentes de manera descontextualizada o producir referencias inexactas. Como estos riesgos ya están documentados y advertidos en foros académicos y prácticos, el nivel de diligencia que se espera del abogado aumenta de manera proporcional.
En ese marco, los tribunales fueron muy claros al sostener que la tecnología no puede reemplazar el trabajo intelectual del abogado ni liberarlo del deber de comprobar la veracidad de toda información que incluyen en sus presentaciones. Saber anticipadamente que las herramientas de IA pueden equivocarse obliga, más que nunca, a extremar los controles de veracidad y pertinencia. Esto significa corroborar cada cita, conservar respaldo documental, y acompañar las referencias con hipervínculos para que los jueces puedan verificarlas fácilmente.
Estos precedentes, junto con otros dictados en distintos países, resultan de interés por el debate no sólo en Argentina sino también en el ámbito internacional, y muestran que el impacto de la IA ya no es un escenario hipotético ni exclusivo de las jurisdicciones más tecnológicamente desarrolladas. Al mismo tiempo, marcan que las herramientas de IA son de gran utilidad, pero, al mismo tiempo, se trata de una herramienta que requiere control humano que garantice la veracidad de lo presentado.
Los casos bajo análisis son “M.J.L. c/ Peugeot Citroën Argentina S.A. y otra s/ sumarísimo”, “Giacomino, César Adrián y otros c/ Monserrat, Facundo Damián y otros s/ daños y perjuicios”, y “Acevedo, Gerardo Gabriel c/ Cáceres Mareco, Willian Arsenio s/ daños y perjuicios automotor c/ lesiones o muerte”.
Diego Fernández es socio de la firma argentina Marval O’Farrell Mairal y es miembro de la junta asesora de investigación de la IAPP.
