Comercial y de la empresa


CMS Rodríguez-Azuero

IA desde una aproximación de riesgos aceptables

30 de julio de 2020

Por: Alejandra Soler

Asociada de CMS-RA
CMS Rodríguez-Azuero
Canal de noticias de Asuntos Legales

Contenido

La Inteligencia Artificial (IA) alza importantes discusiones éticas y jurídicas, que van desde la discriminación algorítmica, la responsabilidad por daños y la privacidad, etcétera. Por ello, países con un grado de madurez en el uso de la IA han adelantado consultas y documentos que les permitan tener mejor comprensión de sus implicaciones, de cara a plantear una aproximación normativa.

¿Cómo está la regulación en esta materia?
A pesar de que según el Conpes 3975 de 2019 sobre transformación digital e inteligencia artificial, en el país todavía es evidente la baja adopción, uso y aprovechamiento de tecnologías avanzadas, como la IA, que alcanza un nivel de adopción menor a 4% entre los empresarios encuestados, Colombia no es ajena al entusiasmo regulatorio de esa tecnología.

Hace pocos días se radicó en Cámara de Representantes el Proyecto de Ley 021 de 2020, por medio del cual se regula el uso y desarrollo de la IA. Desafortunadamente, el Proyecto no sobresale por su rigor, sino por sus deficiencias conceptuales, técnicas y falta de pertinencia.

Por tanto, más que discutir sobre el proyecto, vale la pena plantear algunos puntos para ayudar a aterrizar el entusiasmo regulatorio sobre la IA, en aras de que una eventual construcción normativa sea eficiente, relevante e informada.

La regulación debe considerar definiciones apropiadas sobre IA, reconociendo sus particularidades (un sistema en continua evolución, que aprende, desarrolla y se transforma a sí mismo), de lo contrario sobresimplificar la IA -como ocurre al Proyecto, que toma su definición de la RAE tiene serias implicaciones en su desarrollo y puede comprometer la neutralidad tecnológica.

Atado a esto, hay una amplia diversidad de usos de la IA, por lo que tratarlos como iguales genera ineficiencias regulatorias y económicas. No es lo mismo regular sistemas de reconocimiento facial para investigación criminal, que sistemas que usan IA para identificar patrones rendimiento de una máquina de una fábrica. Es más acertado pensar en la IA, no como una masa uniforme, sino desde una perspectiva basada en problemas y riesgos enfocando eficientemente las necesidades regulatorias y atendiéndolas en proporción dependiendo de si el uso implica un riesgo alto o bajo, como primer filtro.

Adicionalmente, deberían contemplarse otros criterios como: el verdadero uso que se da al sistema de IA (p.e. organizador de documentos o tomador de decisiones), el contexto del sector en el que se inserta ese uso (p.e. sector salud) y el nivel de involucramiento de la IA.

Finalmente, es necesario considerar que, en todo sistema, humano o digital, hay un margen de error y un grado de riesgo aceptable. Esto es particularmente pertinente para los desarrollos tecnológicos que involucran IA -como género- y sus subáreas (Machine Learning y Deep Learning).

Otros puntos quedan fuera por la extensión de esta columna, pero conviene cerrar con una invitación a no burocratizar la tecnología. La creación de una Comisión política que apruebe todos los proyectos y aplicaciones de IA -como propone el Proyecto- no es razonable. Imaginen burocratizar los sistemas de IA implementados para diagnóstico del covid en Corea del Sur, o los desarrollos de Benevolent AI en Reino Unido, que explora miles de documentos académicos sobre drogas testeadas y estudios moleculares, ahorrando años de investigación para hallar un medicamento eficiente para superar la pandemia.

Sin desconocer la necesidad de abordar las discusiones éticas y jurídicas sobre la IA, ojalá que el entusiasmo regulatorio no sea lo que impulse las transformaciones normativas, sino la experiencia y la diversidad de voces para una regulación más eficiente.