La abogacía rinde pleitesía acrítica a las herramientas de “IA para abogados”, ignorando críticas informáticas serias: los LLMs no razonan ni verifican hechos, sino que predicen palabras según patrones estadísticos. Esto convierte a muchos profesionales en difusores gratuitos de hype tecnocrático sin fundamento técnico.
Los cursos de “IA para abogados” están convirtiendo a la profesión en megáfono de marketing digital, fascinados por herramientas que la informática califica como probabilísticas y estructuralmente limitadas. Mientras Salierno (2025) alerta sobre las implicancias éticas y de responsabilidad profesional, expertos técnicos como Darriba (2023) demuestran sus fallas de fondo: ausencia de causalidad, lógica y verificación real. Los LLMs generan contenido verosímil pero a menudo falso.
Este ensayo invita a la abogacía a abandonar la fascinación acrítica, consultar literatura técnica seria fuera del ámbito jurídico y comprender los riesgos de presentar experimentalismo como innovación responsable.
Para entender la fascinación acrítica de la abogacía frente a la tecnología, es imperativo distinguir entre dos paradigmas informáticos que con frecuencia se confunden en el discurso jurídico:
• Algoritmos Deterministas (Sistemas Expertos): Son secuencias de instrucciones “si-entonces” (if-then) programadas explícitamente por humanos. Operan bajo una lógica deductiva y cerrada (ejemplo: bases de datos jurídicas curadas como La Ley). Su resultado es previsible, reproducible y verificable; no “alucinan”, porque solo ejecutan reglas preestablecidas.
• IA de Aprendizaje Automático (Machine Learning): A diferencia de los anteriores, estos sistemas no reciben instrucciones explícitas sobre cómo resolver un problema, sino que “aprenden” patrones estadísticos a partir de volúmenes masivos de datos.
o IA Generativa (LLMs): Es una subcategoría basada en redes neuronales que predice el siguiente elemento (token) en una secuencia. Su naturaleza es fundamentalmente probabilística, no lógica.
Mientras el derecho aspira a la certeza normativa y a la aplicación coherente de reglas, los LLMs operan bajo una aproximación estadística. Confundir un motor de búsqueda de jurisprudencia (determinista) con un generador de lenguaje (probabilístico) es el error de origen que abre la puerta a la antropomorfización y a expectativas irreales.
Atribuir agencia, comprensión o razonamiento a los LLMs constituye una antropomorfización clásica que la informática critica desde hace años. Estos sistemas no “piensan” sino que reproducen patrones estadísticos sin referentes causales ni comprensión real.
Bender et al. (2021) los describen como “loros estocásticos” que replican sesgos masivos presentes en datos de entrenamiento, muchas veces obsoletos, lo que dificulta su uso fiable para cambio social o actualización normativa. Gavilán (2020) advierte que esta falacia limita la imaginación humana al proyectar conciencia donde solo existe predicción de tokens. La abogacía que cae en esta trampa cognitiva la perpetúa.
Darriba (2023) detalla fallas críticas: ausencia de razonamiento causal, dependencia de coincidencias superficiales de palabras y alucinaciones sistemáticas en tareas factuales. Elzaburu (2025) aplica estos riesgos al derecho: citas inventadas, sesgos culturales y falta de contexto normativo que comprometen la calidad de expedientes y dictámenes.
Estudios recientes confirman altas tasas de error en tareas que exigen precisión factual y distinción entre creencias y hechos reales.
Limitación Técnica, Impacto Jurídico, Fuente:
Sin causalidad lógica - Argumentos normativos espurios- Darriba (2023)
Alucinaciones verosímiles - Jurisprudencia y citas ficticias - Elzaburu (2025)
Dependencia estadística - Irrelevancia o falta de contexto - Literatura informática
Datos estáticos y obsoletos - Normativa desactualizada - Bender et al. (2021)
Solo los sistemas cerrados y deterministas —como las bases de datos jurídicas curadas (La Ley y similares)— ofrecen mayor predictibilidad y trazabilidad. Los LLMs, por su naturaleza probabilística, exigen verificación humana exhaustiva en todo caso.
La abogacía que presenta ponencias entusiastas sobre el uso de ChatGPT en congresos y eventos difunde, muchas veces sin advertirlo, expectativas exageradas sin suficiente sustento técnico. Los cursos comerciales suelen omitir que solicitar búsquedas factuales o razonamientos complejos a generadores probabilísticos constituye un error metodológico (Granero, 2024).
La responsabilidad profesional no se diluye: persiste e incluso se agrava por los riesgos creados (arts. 1725 y 1757 del Código Civil y Comercial de la Nación). El reto es claro: pasemos de una adopción acrítica a una fiscalización rigurosa. Leamos la literatura informática seria y exijamos verificación humana total.
Superar la fascinación acrítica exige incorporar las críticas técnicas serias. Los LLMs no “hackean” la justicia, exponen nuestra ingenuidad al humanizar algoritmos. Cuando los abogados actúan como difusores gratuitos de estas herramientas, contribuyen involuntariamente a una justicia cada vez más automatizada, con riesgos particulares para los sectores más vulnerables.
Urge recuperar el rigor ético y técnico para preservar la dignidad y la responsabilidad de la profesión jurídica.
• Bender, E. M. et al. (2021). On the Dangers of Stochastic Parrots. ACM FAccT. https://dl.acm.org/doi/10.1145/3442188.3445922
• Darriba, L. (2023). Principales limitaciones de los Modelos de Lenguaje. https://lucianodarriba.com/principales-limitaciones-de-los-modelos-de-lenguaje/
• Elzaburu (2025). Riesgos del uso de la IA generativa en el sector legal. https://elzaburu.com/riesgos-uso-ia-generativa-sector-legal/
• Gavilán, I. (2020). El riesgo de la interpretación antropomórfica. https://ignaciogavilan.com/el-riesgo-de-la-interpretacion-antropomorfica-de-la-inteligencia-artificial/
• Salierno, K. V. (2025). Responsabilidad Profesional y IA. Escribanía Salierno. https://escribaniasalierno.com.ar/2025/08/29/inteligencia-artificial-responsabilidad-profesional/
• Granero, H. R. [elDial.com]. (2024, 23 de mayo). REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL [Video]. https://www.youtube.com/watch?v=dghdb0jfQIg
• Granero, H. R. (Dir.). (2020). Inteligencia artificial y derecho: un reto social. Editorial Albremática.