Tecnología

La Inteligencia Artificial (IA) y los datos personales, ¿por qué es importante regularlos?

Ética, responsabilidad, privacidad, seguridad y sesgos, algunos de los conflictos que se deben solucionar con la Inteligencia Artificial

19 de julio de 2023

Alejandra Rico Muñoz

Canal de noticias de Asuntos Legales

Contenido

Parece que todo el mundo está hablando de la Inteligencia Artificial (IA). De hecho, entre los trabajos mejor pagados están los que tienen que ver con la tecnología.

El uso de ChatGPT y de otras IA para resolver problemas de la vida cotidiana han creado la necesidad de hablar de las regulaciones y de los límites que, como usuarios, debemos tener.

Uno de esos puntos, que empiezan a ser un verdadero tema de discusión entre abogados y académicos, es la protección de los datos. ¿A dónde va la información que yo le doy a la IA?

Juan Nicolás Lozano, asociado de Competencia, Protección al Consumidor y Protección de Datos de Posse Herrera Ruiz, explicó que “la IA es una herramienta que ayuda a suplir ciertas tareas, con la particularidad de que existe IA que va aprendiendo de manera autónoma”.

El concepto de IA viene desde los años 50’s, sin embargo, desde hace 15 años se empieza a vislumbrar una nueva tecnología llamada ‘Deep learning’. “Es inteligencia artificial que aprende sola y que aprende de manera incrementada con información que se le va dando, por ejemplo ChatGPT”, dijo Lozano.

Con esta nueva actualización, no queda muy claro a dónde va la información que va recogiendo. No obstante, desde el momento en el que el usuario interactúa con ChatGPT, proporciona datos que alimentan un banco de información.

LOS CONTRASTES

  • Carlos Augusto Riveros VictoriaDirector del área de propiedad intelectual y nuevas tecnologías de Riveros Victoria Abogados

    “El consentimiento en el contexto de la IA se enfoca en que los usuarios deben otorgar su permiso informado y explícito antes de que se recojan, utilicen o compartan sus datos”.

  • Juan Nicolás LozanoAsociado de Posse Herrera Ruiz

    “La IA es una herramienta que ayuda a suplir ciertas tareas, con la particularidad de que existe IA que va aprendiendo de manera autónoma”.

Este hecho, entonces, genera conflictos entre la IA y los datos personales. Por ejemplo, “ética y responsabilidad: la IA regularmente toma decisiones y realiza acciones que afectan a las personas de manera significativa. Sin regulaciones claras, es difícil establecer límites éticos y determinar quién es responsable en caso de daños o consecuencias negativas, lo que produce que se planten preguntas sobre rendición de cuentas y la protección de datos”, aseguró Carlos Augusto Riveros Victoria, director del área de propiedad intelectual y nuevas tecnologías de Victoria Riveros.

Además de esto planteó que otro ámbito al que hay que ponerle la lupa es la privacidad y seguridad: “la IA funciona recopilando y “analizando” bancos de datos personales que están en la red, que se encuentran en el dominio público, sin embargo, deja inquietudes y serias preocupaciones sobre la privacidad y la seguridad de la información recolectada. Por lo que sin regulaciones adecuadas, existe el riesgo de abuso y mal uso de los datos recolectados por parte de las entidades que desarrollan o utilizan la IA”.

Otro conflicto son los sesgos que se pueden generar. La IA puede exacerbar las desigualdades existentes en la sociedad. Si los sistemas de IA no se diseñan y entrenan de manera prudente, aprovechando su fase de preentreno, pueden perpetuar sesgos y discriminación, como el sesgo de género o racial.

Finalmente, Riveros aseguró que el último gran impacto está en el campo laboral, pues “la IA tiene el potencial de automatizar muchos trabajos, lo que podría tener un impacto significativo en el empleo. Sin regulaciones adecuadas, podríamos enfrentarnos a una transición desordenada en el mercado laboral, con la pérdida de empleos en ciertas industrias y la falta de oportunidades en otras”.

Por lo cual, como aseguró el asociado de PHR la base de esta regulación debe ser el consentimiento de datos personales y, el segundo pilar debe ser “la finalidad, ¿para qué van a utilizar los datos que le damos a la inteligencia artificial”.