¿Quién controla los insumos culturales en la era de la IA?
08 de abril de 2026Contenido
Cuando hablamos de los outputs de la inteligencia artificial (IA) generativa, el debate suele centrarse en quién los creó, quién es su titular y si se pueden proteger bajo las normas de derechos de autor. Sin embargo, la discusión más relevante está un paso antes: quién puede procesar contenido protegido a gran escala y en qué condiciones.
Unas pocas empresas tecnológicas han recopilado a gran escala obras protegidas —textos, imágenes, música, código— y las han utilizado para entrenar sus modelos de IA. Con ello, pueden generar contenidos que compiten con los originales a un costo prácticamente nulo. El resultado es un cuello de botella: pocas empresas controlan la información que consumimos y sus canales de distribución.
La Directiva sobre Derechos de Autor en el Mercado Único Digital de la Unión Europea contempla excepciones que permiten usar obras protegidas para análisis computacional, siempre que los titulares no hayan reservado expresamente sus derechos. Este mecanismo, conocido como opt-out, permite a los autores prohibir que sus obras sean utilizadas para la minería de textos y datos; en el caso del contenido puesto a disposición del público en línea, dicha reserva debe expresarse de manera apropiada, incluso mediante medios de lectura mecánica, lo que resulta particularmente relevante para el entrenamiento de modelos de IA. El Reglamento de IA de la UE reforzó este esquema, exigiendo a los desarrolladores respetar dichas prohibiciones y cumplir obligaciones de transparencia sobre los datos que utilizan para entrenar sus sistemas.
Estados Unidos, en cambio, emplea la doctrina del fair use, que permite utilizar material protegido sin autorización previa en ciertos casos. Las cortes evalúan cada situación considerando cuatro factores: (i) si el uso añade algo nuevo a la obra original (como crítica, comentario o investigación) o simplemente la copia; (ii) la naturaleza de la obra original; (iii) cuánto se utilizó de la obra y qué tan importante era esa porción; y (iv) si compite con la capacidad del autor de vender su obra. Este último factor es especialmente relevante para la IA: un modelo de lenguaje puede generar infinitos trabajos que compiten con los originales a un costo prácticamente nulo, una cuestión que tribunales estadounidenses ya están resolviendo en casos recientes.
En Kadrey v. Meta (2025), se concluyó que el uso de libros protegidos para entrenar los modelos LLaMA constituía un fair use transformativo, al considerar que los modelos resultantes no reproducían las obras originales en su output; aunque los autores perdieron esta instancia, se dejó abierta la posibilidad de futuras demandas si se puede demostrar que los resultados de la IA son un sustituto funcional específico de sus obras, causando daño en el mercado mediante un tono o contenido similar.
Ambos enfoques —el europeo y el estadounidense— comparten un punto ciego: ninguno aborda directamente la concentración del poder de mercado en manos de quienes entrenan la IA. La regulación de propiedad intelectual no debería operar de forma aislada sin considerar la estructura del mercado. La pregunta de fondo no es si entrenar IA con obras protegidas es legal o ilegal en abstracto, sino si el marco jurídico actual puede evitar que unas pocas empresas controlen los insumos culturales e informativos de toda una sociedad y cómo proteger las nuevas creaciones en este nuevo contexto.