La responsabilidad profesional en la era de la IA
23 de abril de 2026Contenido
Durante años, el error en la práctica legal fue esencialmente humano. Un argumento mal construido, una norma mal interpretada, un precedente mal citado. Errores visibles, corregibles. Hoy eso cambió. El error ahora puede venir de un sistema que genera respuestas plausibles pero incorrectas, las presenta con lenguaje impecable y las entrega con una confianza que hace mucho más difícil detectarlas. Y cuando eso ocurre en un escrito judicial, la consecuencia deja de ser técnica y se vuelve profesional.
El 18 de abril de 2026, uno de los socios de la firma Sullivan & Cromwell, una de las más prestigiosas del mundo, escribió al juez Martin Glenn del tribunal de quiebras del Distrito Sur de Nueva York para disculparse por un escrito que contenía citas legales fabricadas por inteligencia artificial y referencias inexistentes no detectadas en la revisión interna. La firma reconoció que tiene políticas sobre uso de IA, módulos de capacitación obligatorios y la instrucción expresa de "no confiar en nada y verificar todo", pero admitió que esos protocolos no se siguieron. No fue un abogado junior desinformado. Fue una firma con más de 140 años de historia y más de mil abogados, cuyos controles simplemente fallaron.
Lo relevante aquí no es que exista un nuevo tipo de herramienta. Es que la naturaleza del riesgo cambió. Antes, detectar un error legal requería formación jurídica. Hoy requiere algo más: saber que detrás de un párrafo bien escrito puede haber una afirmación completamente falsa, presentada con la misma apariencia de rigor que una cita verificada. La base de datos de Damien Charlotin, que lleva registro de estos casos, ya documenta más de mil incidentes de sanciones por alucinaciones de IA en tribunales. Esto dejó de ser anécdota.
Aquí aparece un concepto que el sector legal necesita empezar a usar: delegación cognitiva. El abogado no solo usa herramientas tecnológicas; empieza a delegar en ellas parte del proceso de construcción del argumento jurídico. Esa delegación puede ser legítima, pero cuando no está supervisada con el mismo rigor que se aplicaría al trabajo de un asociado, el riesgo se multiplica. La diferencia es que el asociado se equivoca de formas reconocibles. La IA se equivoca de formas que parecen correctas.
Las reglas de responsabilidad profesional no cambiaron. El abogado sigue siendo responsable de lo que firma, sin importar cómo se haya producido. Lo que cambió es la práctica. Ahora debe verificar no solo su propio razonamiento, sino también el de las herramientas que utiliza. La paradoja del caso Sullivan & Cromwell es precisamente esa: el problema no fue la IA, fue la falla en seguir los procesos que la propia firma había diseñado para evitar este escenario.
Muchas organizaciones están adoptando inteligencia artificial más rápido de lo que adaptan sus controles internos. Incorporan herramientas, celebran las eficiencias, pero no siempre actualizan en la misma proporción los protocolos de supervisión y la disciplina operativa que esos procesos exigen. Ahí aparece la paradoja: la tecnología no baja el estándar de diligencia profesional, lo eleva. El abogado que usa IA sin entender sus límites puede estar más expuesto que el que no la usa.
En la práctica legal, la responsabilidad no se automatiza. En un entorno donde los errores son cada vez más sofisticados y menos evidentes, el criterio profesional no pierde importancia: se vuelve más decisivo que nunca.