Tecnología

Alucinaciones algorítmicas y pseudo-derecho: Por qué la IA no excusa el error judicial

24 de febrero de 2026

Ivan Dario Marrugo

CEO Head of Digital Law Futurlex
Canal de noticias de Asuntos Legales

Contenido

Recuerdo con nitidez mis días como pasante en los juzgados y la firma de abogados en la que trabaja en Cartagena y luego en Bogotá. En aquel entonces, la carrera contra el tiempo era nuestro pan de cada día; el litigio se sentía como un ejercicio de resistencia donde el vencimiento de términos y la presión por sustentar recursos en plazos perentorios dictaban el ritmo cardiaco de la oficina. En esa época, nuestra "tecnología" más avanzada era el buscador de la Relatoría o, en el mejor de los casos, una base de datos privada que consultábamos con reverencia. Hoy, el panorama ha cambiado drásticamente. La Inteligencia Artificial (IA) generativa se presenta ante las nuevas generaciones como el "pasante perfecto": rápido, incansable y con una prosa aparentemente impecable. Sin embargo, como lo ha advertido recientemente la Sala de Casación Civil de la Corte Suprema de Justicia en la providencia AC739-2026, confiar a ciegas en este auxiliar puede ser el error más costoso de una carrera profesional.

Como especialistas en la intersección entre derecho y tecnología, debemos desmitificar la herramienta. Los Modelos de Lenguaje de Gran Escala (LLM) no operan como sistemas de consulta y recuperación de información preexistente. A diferencia de una base de datos jurídica convencional, un modelo generativo produce texto nuevo mediante predicción probabilística. No "sabe" nada; posee una representación estadística de regularidades lingüísticas. El resultado es un texto con una corrección sintáctica y un tono asertivo que genera una peligrosa "ilusión de validez": la coherencia interna de un patrón induce confianza en su exactitud, con independencia de la fiabilidad de los datos subyacentes.

En el caso colombiano que motiva esta reflexión, un apoderado presentó diez referencias jurisprudenciales apócrifas y tergiversó el contenido del Código General del Proceso. El sistema fabricó radicaciones, fechas y nombres de magistrados con tal precisión formal que solo un escrutinio riguroso pudo desvirtuarlos. Esto es lo que la comunidad técnica denomina "alucinación": la generación de contenido carente de respaldo fáctico, pero cuya formulación resulta difícil de distinguir de un enunciado verdadero. Para el modelo, un precepto auténtico y uno fabricado son igualmente plausibles, pues la diferencia es de índole normativa —validez y vigencia— y no lingüística.

Este fenómeno no es una anomalía local, sino un desafío global que la Corte Suprema analiza bajo la lente del derecho comparado. El antecedente ineludible es el caso estadounidense Mata v. Avianca, Inc. (2023), donde se sancionó a profesionales por presentar memoriales con precedentes fabricados por IA. La lección global es clara: el tribunal no sanciona el uso de la tecnología, sino el incumplimiento del deber de veracidad y la falta de supervisión humana sobre el producto final.

Aquí es donde la providencia AC739-2026 introduce un concepto que los consultores y litigantes debemos grabar en piedra: la ceguera voluntaria (willful blindness). Dado que el riesgo de las alucinaciones es una característica estructural reconocida y ampliamente advertida por los desarrolladores, el abogado que decide no contrastar las referencias en fuentes oficiales incurre en una evitación deliberada del conocimiento. Esta negligencia cualitativamente superior raya en la indiferencia consciente frente a la suerte del proceso. No se requiere dolo o intención de engañar para ser sancionado; basta con la renuncia a una comprobación elemental cuya omisión tornó previsible y evitable el resultado lesivo.

El impacto de estas conductas en el litigio es devastador. En el derecho, las fuentes no solo informan sobre una pauta: la constituyen. Invocar un precedente inexistente no es solo presentar un argumento débil; es introducir en el proceso un fundamento normativo ficticio que defrauda la confianza estructural necesaria para el funcionamiento del sistema adversarial. Por ello, la Corte ha calificado la incorporación de citas apócrifas como una forma de temeridad procesal, activando multas que en este caso fue de 15 SMLMV para el Abogado examinado.

¿Cómo debemos navegar estas aguas quienes asesoramos a empresas y representamos intereses ante la justicia? El Acuerdo PCSJA24-12243 de finales de 2024 del Consejo Superior de la Judicatura fijó el estándar de diligencia para todos. El principio rector es que la herramienta asiste, pero el abogado decide, estructura y responde. La función de garante de la veracidad de las fuentes es indelegable, ya sea que el borrador provenga de un auxiliar, de un pasante o de una herramienta de inteligencia artificial.

Para el ejercicio profesional contemporáneo, recomiendo adoptar tres exigencias mínimas derivadas de la jurisprudencia:

Control humano efectivo: El profesional no puede delegar el juicio jurídico en el sistema ni sustituir su criterio por el del modelo.

Verificación rigurosa: Quien emplea IA asume la carga de contrastar la existencia y fidelidad de cada fuente en repositorios oficiales.

Transparencia funcional: El profesional debe estar en condiciones de advertir el uso de contenido asistido cuando sea pertinente, permitiendo un control efectivo sobre su fiabilidad.

El litigio sigue siendo esa carrera contra el tiempo que conocí en mis inicios. Sin embargo, la agilidad que prometen los algoritmos no puede ser enemiga de la lealtad procesal. Como bien lo analiza la abogada Luiza Jarovsky desde una perspectiva de ética y privacidad, el reto no reside en la potencia de la tecnología, sino en nuestra capacidad de mantener la integridad de nuestras afirmaciones frente a ella. El derecho colombiano ha cruzado el Rubicón: evocando aquel momento histórico en que Julio César cruzó el río hacia Roma, marcando un punto de no retorno, nuestra profesión ha dejado atrás la era de la "curiosidad digital" para entrar en la de la responsabilidad exigible. La ignorancia sobre el funcionamiento de la IA ya no es una excusa válida, sino un agravante de la negligencia profesional. Al final del día, la firma del profesional sigue siendo el último bastión de la verdad en el expediente.