La transparencia algorítmica como medio de protección de los derechos de autor

1.     ¿QUÉ ES LA TRANSPARENCIA ALGORÍTMICA?

Con la llegada y puesta a disposición del público de sistemas de IA generativas como ChatGPT, Dall-E, Midjourney o Deepseek, la vida diaria de las personas se ha visto afectada. Los usuarios en línea tienen una amplia facilidad para interactuar con estos sistemas, a partir de lo cual, empieza a surgir la duda sobre si éstos tienen derecho a conocer y comprender cómo funciona la IA que usan; es decir, su algoritmo.

Al respecto, los usuarios y determinadas empresas —especialmente aquellas cuyo objetivo es la gestión y protección de la reputación online— opinan que «la opacidad en los algoritmos puede generar desconfianza y escepticismo»[1]; de ahí se erige como una solución: la transparencia, cuya presencia reduce la incertidumbre.

No obstante, la transparencia algorítmica no se reduce solo a la confiabilidad que pueda ofrecer una empresa privada; sino que, ha sido analizada ampliamente como parte del derecho de acceso a la información de los ciudadanos en el supuesto de que las administraciones públicas utilicen sistemas IA o algoritmos para la prestación de sus servicios. En esa línea, VESTRI[2] indica que los ciudadanos tienen derecho a conocer el algoritmo y que no puede negársele el acceso alegando el secreto profesional o el secreto requerido en procesos de toma de decisión; sino que, la Administración Pública debe demostrar cómo es que brindar dicha información implica problemas de seguridad pública según el criterio adoptado por la Audiencia Nacional[3].

En esa línea de ideas, la transparencia algorítmica ha alcanzado el rango de principio en el seno de la OCDE sobre las Inteligencias Artificiales, acorde a la cual se trata de la obligación de los actores del ciclo de vida de la IA de informar sobre ésta, aspectos como los inputs (o datos de entrada), métodos de procesamiento, entre otros[4].

Entonces, ¿de qué forma se relaciona la transparencia algorítmica y los derechos de autor? En el ciclo de vida de las IA, la primera fase son los inputs o datos de entrada, aquellos que nutren a la IA para brindar respuestas o generar contenido (outputs). Estos datos suelen estar compuestos por obras sujetas a protección por derechos de autor; de ahí que, los Estados cuestionan cómo regular el uso de obras protegidas por el copyright en el entrenamiento de las IA.

Es en este contexto que tanto la UE como otras naciones arriban a un consenso inesperado, al colocar como un eje importante a la transparencia algorítmica en el desarrollo de sistemas de IA.

2.     MARCO EUROPEO

El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo[5], de 13 de junio de 2024, en un principio realiza una clasificación de sistemas de IA en atención a su tamaño y modelo; de esa forma, las divide en: sistema de IA de alto riesgo, modelo de IA de uso general con riesgo sistémico o modelos de IA de uso general.

Si se trata de un sistema de IA de alto riesgo debe garantizar un nivel de transparencia suficiente para que los responsables del despliegue interpreten y usen correctamente sus resultados de salida (art. 13). Por otro lado, si se trata de un modelo de IA de uso general con o sin riesgo sistémico, sus proveedores deberán asumir las obligaciones prescritas en el art. 53, entre las que resalta el establecimiento de directrices para cumplir el Derecho de la Unión en materia de derechos de autor y afines; además de, la elaboración y puesta a disposición al público de un resumen suficientemente detallado del contenido utilizado para el entrenamiento del modelo de IA de uso general, con arreglo al modelo facilitado por la Oficina de IA.

En suma, se advierte una predisposición a dotar de transparencia al proceso de entrenamiento y desarrollo de los sistemas de IA, lo que parece complementarse con la obligación impuesta a los Estados miembro de garantizar la reserva por parte de los autores contenida en el art. 4 de la Directiva (UE) 2019/790[6], exactamente sobre el límite (reserva) a la excepción de minería de textos y datos.

Ahora bien, la citada directiva prescribe que dos tipos de medios para reservar la obra, uno tecnológico como es «la utilización de medios de lectura mecánica, incluidos los metadatos y las condiciones de un sitio web o un servicio»[7]; y, otro jurídico, como son las licencias que pueda otorgar el autor a un tercero. Lo que, para ORDELIN FONT, conlleva que sean los autores o titulares de estos derechos quienes deban adoptar las medidas necesarias para excluir su obra del entrenamiento; mientras que, los desarrolladores de los sistemas IA seguirán utilizando todo lo que se encuentre en internet bajo la creencia que es contenido público[8].

3.     ANÁLISIS COMPARADO

3.1.                 Copyright and AI: Consultation (UK)

El 17 de diciembre de 2024, el Secretario de Estado para la Ciencia, Innovación y Tecnología bajo la orden del Rey de Reino Unido presentó al Parlamento un proceso de consulta con el objetivo de recolectar las respuestas de parlamentarios, expertos, ciudadanos y demás grupos de interés sobre la potencial regulación de los modelos de IA.

En esa línea, la consulta consta de cuarenta y siete (47) preguntas sobre diversos tópicos referente a la regulación de los sistemas IA frente a los derechos de autor. Entre los que resalta como pilar de regulación la transparencia algorítmica, al proponer medidas de transparencia sobre el contenido utilizado por los sistemas de IA en su entrenamiento como puede ser la publicación de los contenidos utilizados para el entrenamiento de las IA, parecido a lo prescrito por la UE en el Reglamento (UE) 2024/1689.

3.2.                 California’s Assembly Bill 2013

El 28 de setiembre de 2024 se añadió el título 15.2 a la parte 4 de la división 3 del Código Civil[9] de California, relacionado a la inteligencia artificial. La mencionada normativa establece la obligación de los desarrolladores de los sistemas de IA de hacer público los datos utilizados para el entrenamiento de estos, señalando una serie de tópicos que sirven como piso mínimo de la información requerida. Es de verse que se trata de una regulación dirigida a asegurar la transparencia de los sistemas de IA.

4.     CONCLUSIONES

Del análisis realizado, se puede identificar que un elemento importante para garantizar la protección de los derechos de propiedad intelectual frente al desarrollo de sistemas IA —en especial, las de tipo generativa y deep learning— es la transparencia algorítmica.

Si bien en ninguna de las normativas, consultas o posturas de gobierno se define qué se entiende por transparencia en la fase de inputs del desarrollo de sistemas IA, considero que se refieren a la transparencia algorítmica entendida como la acción de hacer público el contenido interno del algoritmo de una IA.

No obstante, a nivel europeo, opino que la transparencia algorítmica no logra ser un medio eficiente de protección de los derechos de autor por sí solo; pues, si bien se prescribe la obligación de los Estados de garantizar la reserva de la obra acorde a la directiva citada anteriormente, esta última contempla que sean los mismos autores o titulares quienes deban adoptar los medios suficientes para asegurar su reserva. Por lo que, por más que obligue a los desarrolladores de sistemas de IA a publicar los contenidos utilizados en el entrenamiento de sus IA, el único beneficio para el autor o titular de derecho es conocer si su obra fue usada o no en estos procesos; más no brinda una vía de oposición ante dicha utilización no autorizada.

Asimismo, existen críticas sobre que una transparencia exagerada puede afectar la competitividad de una empresa en el mercado[10], lo que puede traducirse en una desventaja ante el surgimiento de la transparencia algorítmica como medio de protección de los derechos de autor.

Finalmente, he de resaltar que la transparencia algorítmica como medio de protección no es excluyente respecto de otras propuestas que se vienen discutiendo en el campo jurídico —tales como el DTM, computer-generated Works, fair use, licencias individuales o colectivas, etc. —; por el contrario, considero que puede servir de complemento.

 

Notas:

[1] ABASCAL, A. «La ética y transparencia en la IA: su importancia en la reputación online», REMOVE GROUP, 2025, https://www.removegroup.com/etica-y-transparencia-en-la-ia-importancia/ (consultada por última vez el 13.08.2025).

[2] VESTRI, G. «La inteligencia artificial ante el desafío de la transparencia algorítmica: Una aproximación desde la perspectiva jurídico-administrativa», Revista Aragonesa de Administración Pública, (56), 2021, págs. 368 y ss. (381). (Se consulta la versión electrónica disponible en la base de datos Dialnet ISSN 1133-4797).

[3] Sentencia de la Audiencia Nacional (Sección 7ª de la Sala de lo Contencioso), núm. de Recurso: 70/2019, de 17 de junio de 2020 (Roj: SAN 1377/2020 – ECLI: ES:AN:2020:1377).

«Desde luego que tal información es confidencial en la medida en que pueda afectar a la seguridad de las instalaciones calificadas como estratégicas o críticas. Pero no basta con que determinada información tenga relación con infraestructuras así clasificadas para que deba denegarse el derecho a la información. Deberá justificarse, al menos someramente, por qué los datos contenidos en los informes, por el nivel de detalle o por su carácter sensible, pueden comprometer la seguridad pública en el caso de difundirse» (FJ 5º).

[4] ORGANIZACIÓN PARA LA COOPERACIÓN Y EL DESARROLLO ECONÓMICO, «Recommendation of the Council on Artificial Intelligence», 2024, section 1 paragraph II.

[5] DOUE-L-2024-81079.

[6] L 130/92

[7] Considerando 18 de la Exposición de motivos.

[8] ORDELIN FONT, J. L. « Derechos de autor y entrenamiento de sistemas de IA generativos: las obligaciones de transparencia y la minería de textos y datos en la normativa europea», Revista de Internet, Derecho y Política, (42), 2025, págs. 1 y ss. (8).   (Se consulta la versión electrónica disponible en la base de datos Revista de Internet, Derecho y Política ISSN 1699-8154).

[9] Assembly Bill No. 2013 chapter 817, An act to add Title 15.2 (commencing with Section 3110) to Part 4 of Division 3 of the Civil Code, relating to artificial intelligence, published on 30 september 2024.

[10] BELTRÁN GARCÍA, S. «Transparencia e inteligencia artificial en Europa. Una relación normativa incierta», Revista de l’Institut d’Estudis Europeus, 4(2), 2025, págs. 27 y ss. (50).   (Se consulta la versión electrónica disponible en la base de datos Quaderns IEE ISSN 2696-8525).