Inteligencia artificial y responsabilidad civil

Andrés Felipe Sarmiento-Asociado DLA Piper Martínez Beltrán

Andrés Felipe Sarmiento

Hace unos días en Texas ocurrió un accidente en donde un vehículo Tesla Model S chocó con un árbol dejando dos personas muertas. Según las autoridades, el carro no era conducido por ninguno de sus ocupantes, por lo que se cree que el choque se produjo mientras estaba activado el piloto automático operado por la IA del vehículo.

El uso cada vez más frecuente de máquinas con IA, incluso en Colombia, ha revivido el debate sobre quién debe responder por los daños que estas causen.

En el caso colombiano ¿Quién debe reparar a los consumidores por los daños que cause una máquina con IA?

El productor estaría obligado a reparar a sus usuarios bajo el régimen de responsabilidad por producto defectuoso, siempre y cuando el daño haya sido causado por un error en el diseño, fabricación, construcción, embalaje o información de la máquina. No obstante, eventualmente podría exonerarse alegando que el estado de la técnica al momento en que se puso en circulación el dispositivo no permitía prever el defecto, lo cual se conoce como riesgo de desarrollo.

¿Quién debe reparar el daño cuando la máquina causa daños a terceros (no consumidores)?

La IA permite a una máquina resolver problemas autónomamente a partir de su capacidad de percepción, razonamiento y autoaprendizaje. Por lo tanto, su comportamiento tiene un alto grado de imprevisibilidad pues estará determinado por la adaptación de la máquina al entorno que la rodea, sin necesidad de reprogramación humana.

Es por ello, que la imprevisibilidad de la próxima conducta de la máquina y el estado experimental de esta tecnología han llevado a pensar que la IA puede ser considerada como una actividad peligrosa por introducir un riesgo extraordinario en la sociedad. De ahí que hay quienes sugieren aplicar el régimen de responsabilidad por actividades peligrosas para que el propietario, usuario y/o productor reparen los daños que la máquina cause a terceros.

Si bien la jurisprudencia no se ha pronunciado al respecto, es claro que la aplicación de dicho régimen es inviable pues en este la atribución del daño pasa por verificar que el demandado tenga la calidad de guardián de la actividad peligrosa por tener su control y dirección. Empero, la autonomía con la que actúan las máquinas con IA impide concluir que el propietario o productor controlen o dirijan su comportamiento.

Tampoco procedería aplicar un régimen subjetivo pues en lo que respecta al productor, si no hay error en el patrón algorítmico que configura la IA nada podría reprochársele sobre los daños que cause la máquina. Mucho menos podría imputarse subjetivamente el daño al propietario o usuario pues la máquina obedece a un comando que no puede ser modificado por estos.

Ante esto, en Europa se ha propuesto establecer seguros obligatorios, crear fondos de compensación e incluso hasta dotar de personería jurídica a los robots con IA. Sin embargo, la imprevisibilidad de la IA crea varias dificultades en torno a su aseguramiento, al paso que dotar a un robot de personería suscita serios cuestionamientos éticos y legales.

Por esto, la creación de fondos comunes ha sido una de las opciones con más acogida pues de este modo se logra reparar a la víctima sin imputar forzadamente el daño a quienes no deben soportarlo.


TEMAS

Inteligencia artificial - Tesla - Daños a terceros