Inteligencia Artificial: responsabilidad contractual y extracontractual
20 de febrero de 2024Contenido
La llegada de los sistemas de Inteligencia Artificial (“IA”) en diferentes sectores, plantea diversos desafíos jurídicos de todo orden. No es una cuestión del futuro, es un asunto del presente y como abogados nos vemos en la necesidad de reflexionar acerca de sus efectos ante los daños derivados de estos desarrollos tecnológicos.
Nótese, que en Colombia una de cada cuatro empresas ya está integrando sistemas de IA, por lo que cada vez se harán más visibles los casos de responsabilidad por daños ocasionados por estos sistemas. Por lo cual, de manera muy sumaria plantearé nuevos retos por enfrentar en la responsabilidad civil.
Actualmente ha sido tendencia que se analicen los daños derivados de los sistemas de IA a partir de la responsabilidad extracontractual, sin que sea tenida en cuenta la contractual. Por lo tanto, es importante recordar que la responsabilidad civil también comprende la responsabilidad contractual, por lo que, si bien actualmente no existe un régimen especial de responsabilidad civil aplicable a esta clase de sistemas, esto no nos exonera para entender los riesgos asociados a estas nuevas tecnologías y, en consecuencia, a realizar una correcta identificación y distribución de los riesgos en los contratos, en el marco del principio de la autonomía de la voluntad de las partes.
Los riesgos asociados a esta clase de desarrollos para efectos de la responsabilidad contractual, pueden ser clasificarlos en tres categorías: (i) riesgos principales o directos: derivados del sistema de IA cuando opera como un fin en sí mismo; (ii) riesgos secundarios o colaterales: derivados de la utilización de sistemas de IA operados como medio; y (iii) riesgos no previsibles: aquellos que como su nombre lo indica, no pueden preverse, en especial, al tratarse de una tecnología en constante evolución.
Los riesgos directos son aquellos que se derivan de la funcionalidad misma del sistema de IA, es decir, si presenta fallas en su calidad o es defectuoso, lo cual impediría su correcta utilización. Por regla general, estos riesgos se analizan en los contratos en los que los sistemas de IA son el objeto principal del mismo, trátese de compraventa, licenciamiento, cesión, etc.
Los riesgos que podemos denominar como secundarios o colaterales, son aquellos que, si bien no hacen parte del objeto principal del contrato, por la utilización de sistemas de IA en una relación contractual, sí pueden ocasionar un incumplimiento contractual. Por ejemplo, que se filtre información confidencial en sistemas de IA generativa pública como lo es Chat GPT, que exista información incorrecta o falsa en los entregables pactados, violaciones a derechos de autor por no revelarse las fuentes de información, recaudo de información sensible como lo es la voz, etc. Los riesgos secundarios a diferencia de los principales o directos, se derivan por el uso irresponsable, inseguro y no ético de estos sistemas, mas no porque los sistemas de IA no funcionen correctamente, de acuerdo con sus alcances y limitaciones.
Lo anterior evidencia, que es inevitable repensar y prever riesgos que cuando estudiamos Derecho no existían, por lo que las cláusulas que hemos venido utilizando cada vez se hacen más obsoletas si no las actualizamos a las realidades actuales. En efecto, se hace más necesario que como abogados seamos más analíticos, creativos, innovadores y en lo posible visionarios, si queremos que el contrato sea el que entregue una respuesta clara y certera ante posibles incumplimientos contractuales asociados a las nuevas tecnologías, como lo es la IA.
Ahora bien, en lo que respecta a la responsabilidad extracontractual, se vuelve más complejo lograr probar la causalidad, la culpa, y el nexo causal, en la medida en que no todos los sistemas de IA son desarrollados bajo supervisión humana; operan y toman decisiones de manera autónoma, por lo que también existe el riesgo de explicabilidad y opacidad “cajas negras” que impiden comprender la forma en que los sistemas de IA llegan a determinados resultados. Esto puede afectar la capacidad de asignar responsabilidades y compensar a las partes perjudicadas, de acuerdo con nuestra regulación actual en los que es exigible la prueba de la culpa y del nexo causal.
En la responsabilidad extracontractual también son varios los puntos álgidos a analizar: (i) si puede catalogarse como una actividad peligrosa; (ii) si puede atribuirse responsabilidad teniendo en cuenta los diferentes sujetos que hacen parte de la cadena de valor: desarrolladores, distribuidores, operadores y usuarios; (iii) si la responsabilidad debería ser solidaria (iv) si debería ser objetiva y/o subjetiva; (ii) si es necesario establecer una presunción de causalidad como ocurre con el artículo 2353 del C.C., (iv) si debe exigirse la expedición de seguros obligatorios que cubran dichos riesgos; entre muchos otros interrogantes.
Lo cierto es que en Colombia aún no existe un régimen especial de responsabilidad contractual y extracontractual aplicable a los daños ocasionados por los sistemas de IA, pero eso no significa que el daño que se derive de un sistema de IA se encuentre exento de reparación, por lo que el régimen general de la responsabilidad civil actual le resultaría aplicable.
Para profundizar sobre este tema los invito a consultar la ponencia “La Responsabilidad Civil en el laberinto de la Inteligencia Artificial” que será publicada en los próximos meses en el marco de las I Jornadas Colombianas de Derecho Privado.
*Luisa Jiménez Mahecha, Directora de Recursos de la Información y Compliance