Inteligencia artificial

El error de A$440,000 y por qué la IA no tuvo la culpa

10 de octubre de 2025
Canal de noticias de Asuntos Legales

Contenido

Cuando leemos que una de las firmas de consultoría más grandes del mundo tuvo que devolver parte de sus honorarios por entregar un informe lleno de "alucinaciones" de IA, la reacción inmediata es culpar a la tecnología. Pero ese es el análisis fácil y, francamente, el equivocado.

El reciente caso de Deloitte en Australia, donde se utilizó un modelo de IA generativa para generar un informe para un cliente, que es nada más y nada menos que el Gobierno Australiano, de A$440,000 dólares australianos, unos USD $289,000 dólares norteamericanos, que resultó contener citas inventadas y referencias falsas, no es una historia sobre el fracaso de la inteligencia artificial. Es una lección carísima sobre el fracaso de la supervisión, la gobernanza y la inteligencia humana.

La IA hizo exactamente lo que se esperaba: procesar información y generar texto basado en patrones. La pregunta que los líderes deben hacerse no es si la IA es peligrosa, sino: ¿dónde estaban nuestros procesos? ¿Quién era el responsable de verificar el resultado final?

Piensa en la IA como el nuevo practicante en tu equipo. Tiene acceso a una cantidad de información inimaginable y puede producir borradores en segundos. Pero, ¿le encargarías a ese practicante, sin supervisión alguna, la redacción final de un informe crucial para un cliente que paga cientos de miles de dólares? Claro que no.

El error no está en usar la herramienta, sino en delegarle la responsabilidad. Para evitar que un tropiezo similar ocurra en tu organización, tu plan de implementación de IA debe concentrarse en tres pilares de acción concretos:

(i) Gobernanza clara y protocolos de verificación: No puedes simplemente liberar herramientas de IA generativa en tu organización y esperar buenos resultados. Cada resultado generado por IA debe ser tratado como un primer borrador, sujeto a una verificación rigurosa de hechos, fuentes y coherencia por parte de un experto humano.

(ii) Cultura de escepticismo informado: La capacitación es clave, pero no debe limitarse a enseñar a los equipos a escribir prompts. Debemos entrenarlos en las limitaciones inherentes de la tecnología. Fomentar un "escepticismo informado" significa que cada usuario entiende que los modelos de lenguaje pueden y van a cometer errores. La verdadera habilidad no es generar texto rápido, sino saber cuestionarlo, validarlo y mejorarlo.

(iii) Responsabilidad humana indiscutible: Al final del día, la responsabilidad de cualquier entregable recae en una persona, no en un algoritmo. Los líderes deben asegurarse de que las cadenas de mando y los puntos de aprobación finales estén claramente definidos, y que la firma de un humano sea el sello final de calidad, no la de una máquina.