La IA y la ilusión de infalibilidad jurídica
11 de mayo de 2026Contenido
El pasado 29 de abril, con ocasión del lanzamiento de la alianza entre la Universidad del Rosario y Clio para la creación de un Centro de Capacitación en Inteligencia Artificial Legal, tuve el privilegio de ser invitado a intervenir como panelista en el foro “El Abogado del Futuro”, en donde planteé las siguientes reflexiones sobre la IA y el ejercicio del derecho.
Es incuestionable que el derecho avanza a paso de tortuga y la tecnología a la velocidad de la liebre; y que el ordenamiento jurídico cada vez es más precario para abordar los fenómenos cotidianos.
Lo anterior implica que hoy la función del abogado es más exigente porque debe ayudar a su cliente a navegar por un mar de incertidumbre y asistirlo en evaluar, disminuir y sortear las contingencias legales propias de estas circunstancias.
En ese contexto, la inteligencia artificial es una herramienta poderosa. Permite procesar información a gran escala, acelerar la investigación jurídica y optimizar tareas que antes consumían horas de trabajo.
Pero también conlleva grandes riesgos, algunos de ellos sutiles, pero muy peligrosos. La interacción con la IA no puede ser despreocupada y pasiva: impartir una instrucción y aceptar el resultado sin revisión no es eficiencia, es temeridad. El abogado sigue siendo responsable del producto final; la herramienta es un apoyo.
Esta exigencia se vuelve más evidente a la luz de lo que recientemente ha advertido The Economist, que en su artículo sobre la “rendición cognitiva” —AI and the danger of cognitive surrender— ilustra cómo, cuando los usuarios delegan el razonamiento en sistemas de inteligencia artificial, tienden a aceptar sus respuestas sin cuestionarlas, incluso cuando son erróneas. Esto implica que no se presenta una simple delegación funcional, sino que se abdica y se renuncia al juicio propio. Lo que se gana en velocidad se pierde en rigor.
A ello se suma el riesgo de incurrir en la denominada falacia antropomórfica: la tendencia a atribuir a la herramienta cualidades humanas —criterio, empatía, comprensión o intención— que no posee. Ese autoengaño conduce a sobreestimar sus capacidades y a relajar los controles que exige el ejercicio riguroso del derecho.
Lo que ha ocurrido en otros sectores lo ilustra bien. En la aviación, la automatización no ha reemplazado al piloto: lo ha obligado a asumir un rol más exigente y vigilante. El piloto automático y los sistemas de navegación reducen la carga operativa, pero incrementan la responsabilidad de supervisión, programación y decisión. El pilot in command sigue siendo el responsable integral del vuelo.
En el derecho ocurre lo mismo. Las herramientas tecnológicas pueden optimizar tareas, pero no sustituyen la valoración jurídica, la estrategia ni la responsabilidad frente al cliente o a la autoridad. Por el contrario, su uso exige mayor rigor: verificar fuentes, detectar errores y evaluar críticamente cada resultado.
Por ello, el verdadero desafío no es usar la inteligencia artificial, sino hacerlo de manera rigurosa y responsable, lo que supone capacitación, disciplina metodológica y, sobre todo, un criterio formado que evite tanto la delegación acrítica como la ilusión de infalibilidad y de atributos de los que en realidad carece el sistema.
En esa línea, iniciativas académicas como la maestría anunciada deben ser vistas con especial beneplácito por las firmas legales. Su desarrollo contribuirá a que ellas consigan abogados más preparados desde el inicio, que sepan entender los límites y riesgos de esta herramienta. La ventaja competitiva no la tendrá quien use la IA, sino quien la use mejor.