EL CÓDIGO DE BUENAS PRÁCTICAS EN MATERIA DE IA Y SU INCIDENCIA EN LOS DERECHOS DE PROPIEDAD INTELECTUAL.

(El autor es Profesor Titular de Derecho Civil de la UAM y secretario del CIPI)

Julio ha sido un mes "movido" en lo que tiene que ver con la inteligencia artificial (IA) y la propiedad intelectual. La Comisión Europea presentó tres documentos muy relevantes que demuestran de una manera más que evidente cómo el legislador que aprobó el Reglamento (UE) 2024/1689, de 13 de junio, sobre IA, tuvo en mente el derecho de autor y los derechos conexos, y cómo puede afectarles esta nueva tecnología. Esos tres documentos son: 1) el Código de Buenas Prácticas (en adelante, CBP) para los modelos de IA de uso general (10 de julio); 2) las directrices sobre el ámbito de aplicación de las normas relativas a los modelos de IA de uso general (18 de julio); 3) la plantilla para presentar el resumen de los datos utilizados para el entrenamiento de modelos de uso general (24 de julio). Como se puede comprobar, la relación entre la IA y los derechos de propiedad intelectual es de plena actualidad. En esta entrada abordaré el CBP (disponible en: https://digital-strategy.ec.europa.eu/es/policies/contents-code-gpai), quedando relegado el comentario a los otros documentos para otra.

El CBP constituye una herramienta voluntaria para sus destinatarios, que ha sido preparada por expertos independientes. La adhesión al Código permite a los proveedores de modelos de IA de uso general demostrar el cumplimiento de sus obligaciones de una manera más fácil, reduciendo la carga administrativa y dándoles más seguridad jurídica que si utilizaran otros medios para ello. Los destinatarios de tales obligaciones podrán entender qué se espera que hagan para dar cumplimiento al Reglamento 2024/1689. Recuérdese que las obligaciones previstas en el capítulo III, sección 4, el capítulo V, el capítulo VII y el capítulo XII y el artículo 78 empezaron a ser aplicables a partir del 2 de agosto de 2025, a excepción del artículo 101, según su artículo 113.III.b), si bien el poder coercitivo de la Comisión para forzar su cumplimiento, incluso imponiendo multas, no comienza hasta el 2 de agosto de 2026. Además, los proveedores que introdujeron modelos en el mercado antes del 2 de agosto de 2025 deben cumplir con las obligaciones a más tardar el 2 de agosto de 2027. El Código consta de tres capítulos: uno dedicado a la transparencia, orientado al cumplimiento de las obligaciones establecidas en las letras a) y b) del artículo 53.1 Reglamento 2024/1689; otro relativo a los derechos de propiedad intelectual, que tiene que ver con la obligación recogida en la letra c) del artículo 53.1 Reglamento 2024/1689; y un tercero sobre seguridad, acorde con las obligaciones incluidas en los artículos 55 y 56 Reglamento 2024/1689. Por razones obvias, me centraré en el que tiene que ver con el respeto a los derechos de propiedad intelectual.

El CBP es una guía para demostrar el cumplimiento de estas obligaciones del Reglamento 2024/1689, pero la adhesión a él no constituye una evidencia de su cumplimiento [objetivo específico a) CBP] ni del cumplimiento de la normativa europea sobre propiedad intelectual [cdo. a) CBP]. Efectivamente, que un proveedor de IA haya decidido adherirse al CBP no presume que esté actuando conforme a la normativa, pues para ello debe implementar una serie de medidas que garanticen su cumplimiento. De nada sirve adherirse si luego los proveedores no establecen directrices para respetar el Derecho de la UE en materia de propiedad intelectual y para detectar y cumplir las reservas de derechos hechas conforme el artículo 4.3 Directiva 2019/790, que es a lo que obliga el artículo 53.1.c) Reglamento 2024/1689. Se trata ésta de una obligación de hacer, que requiere una actitud activa en el cumplimiento de los derechos de autor y de los derechos conexos. Asimismo, el CBP no afecta a la aplicación y cumplimiento del Derecho de la UE en materia de propiedad intelectual [cdo. b) CBP] ni a los acuerdos que los signatarios hayan establecido con los titulares de derechos sobre el uso autorizado de obras y prestaciones [cdo. e) CBP]. Además, el CBP afirma que los compromisos que se adquieran en virtud de este documento para dar cumplimiento a la obligación contenida en el artículo 53.1.c) Reglamento 2024/1689 son complementarios con la obligación establecida en el artículo 53.3.d) Reglamento 2024/1689, relacionada con la publicación de resúmenes sobre el contenido utilizado para entrenar los modelos de IA de uso general [cdo. f) CBP].

Todo proveedor de modelos de IA de uso general que firme el CBP está reconociendo, por este solo hecho, que el Derecho de la UE sobre derecho de autor y derechos conexos: a) está previsto en las directivas dirigidas a los Estados miembros y, para los fines que aquí se están contemplando, especialmente en la Directiva 2001/29, sobre derecho de autor y derechos conexos en la sociedad de la información, en la Directiva 2019/790, sobre derechos de autor y derechos conexos en el mercado único digital, y en la Directiva 2004/48, sobre cumplimiento de los derechos de propiedad intelectual; b) establece derechos de exclusiva que tienen una naturaleza preventiva, basada en el consentimiento previo a la hora de utilizar una obra o prestación protegida, salvo que resulte aplicable una excepción -algo que ha sido reiterado por el TJUE en muchas de sus sentencias [ej.: SSTJUE de 6 de marzo de 2025 (caso ONG, asunto C-575/23, pár. 106), de 20 de junio de 2024 (caso GEMA, asunto C-135/23, pár. 17) o de 11 de abril de 2024 (caso Citadines, asunto C-723/22, pár. 37)]-; c) establece una excepción para la minería de textos y datos en el artículo 4.1 Directiva 2019/790, que resultará aplicable cuando se cumplan dos condiciones básicas: 1) que se haya tenido un acceso legítimo al contenido protegido que se quiere utilizar a estos efectos, 2) que los titulares de derechos no hayan impedido expresamente la aplicación de la excepción reservándose los derechos de una manera adecuada, conforme al artículo 4.3 Directiva 2019/790 [cdo. c) CBP].

En este capítulo del CBP, el principal compromiso propuesto por la Comisión es el diseño de una política de respeto de los derechos de propiedad intelectual. Ahora bien, no se trata únicamente de diseñarla, sino también de mantenerla debidamente actualizada y de implementarla efectivamente. Con todo, esas medidas que dispongan en sus políticas deben ser acordes con la transposición que han hecho los Estados miembros de las normas europeas sobre derecho de autor y derechos conexos, y, en particular, con el artículo 4.3 Directiva 2019/790. Los signatarios son los responsables de garantizar esa concordancia. En consecuencia, deben respetarse los derechos de reproducción, distribución y comunicación pública, previstos en los artículos 2 a 4 Directiva 2001/29, o las excepciones incluidas en el artículo 5 Directiva 2001/29 y 3 a 6 Directiva 2019/790, entre otras cuestiones.

El capítulo del CBP dedicado a la propiedad intelectual prevé cinco medidas: 1) el diseño, la actualización y la implementación de una política de respeto a los derechos de propiedad intelectual; 2) la reproducción únicamente de obras y prestaciones respecto de las cuales se haya tenido acceso legítimo, cuando se lleva a cabo el entrenamiento de los modelos de IA a través de web-crawling; 3) la identificación y el respeto de las reservas de derechos realizadas por sus titulares, cuando se lleve a cabo ese web-crawling; 4) la mitigación del riesgo de infracciones a los derechos de propiedad intelectual en el output; 5) la designación de un punto de contacto con quien comunicarse y ante el cual los titulares de derechos puedan presentar las correspondientes quejas. La primera de estas medidas se centra en el momento en que se pone en el mercado de la UE el modelo de IA de uso general. Es a partir de entonces cuando esa política debe ponerse en marcha, si bien el respeto de los derechos de propiedad intelectual debe hacerse desde el mismo momento en que se entrena el modelo de IA. Las medidas 2 y 3 se refieren a dos momentos: la fase de entrenamiento y la fase de uso del modelo por parte de terceros. En ambos deben reproducirse únicamente obras y prestaciones de las que se tenga un acceso legítimo. Recuérdese que el entrenamiento puede hacerse no solo por el programador del modelo de IA, sino también por el propio usuario. Finalmente, las medidas 4 y 5 tienen que ver con la fase de uso del modelo por terceros. El output que puedan generar los usuarios al utilizar el modelo de IA no puede contravenir los derechos de propiedad intelectual y, si se producen infracciones, los titulares de tales derechos deben tener un punto de contacto al que dirigirse para poder reclamar.

La primera medida a adoptar por parte de los signatarios es el diseño, mantenimiento, actualización e implementación de una política de respeto del Derecho de la UE en materia de propiedad intelectual, cuando pongan en el mercado de la UE modelos de IA de uso general. Esta política, según el punto 1 de esta primera medida, debe incluirse en un documento único, debe incorporar las medidas establecidas en este capítulo del CBP y debe señalar quién es el responsable dentro de la organización para la implementación y el monitoreo de esta política -parece un rol similar al que juega el delegado de protección de datos-. No obstante, no se obliga a los proveedores de modelos de IA de uso general a poner esta política a disposición del público en toda su extensión, sino que se les anima a publicar un resumen de la misma, si bien debe estar actualizado (vid. punto 2 de la medida 1 CBP).

La segunda medida tiene como finalidad garantizar que únicamente se reproducen obras y prestaciones que sean accesibles de forma legítima a la hora de rastrear las webs para fines de minería en el sentido del artículo 2.2 Directiva 2019/790. Este fin debe cumplirse no sólo en el momento en que los programadores entrenan el modelo de IA, sino también cuando son los propios usuarios los que lo alimentan mediante contenidos protegidos por la propiedad intelectual. Esta medida viene a recoger el requisito de acceso legítimo ya previsto en el artículo 4 Directiva 2019/790 para llevar a cabo la minería. Para conseguir este objetivo, los signatarios asumen dos compromisos. El primero es no eludir, a la hora de hacer ese rastreo, las medidas tecnológicas efectivas, tal como son definidas en el artículo 6.3 Directiva 2001/29, que estén diseñadas para impedir o restringir actos no autorizados respecto de obras y prestaciones protegidas, debiéndose respetar, en particular, cualquier denegación o restricción de acceso impuesta tecnológicamente mediante modelos de suscripción o de pago [punto 1.a) de la medida 2 CBP]. Se trata de impedir los usos no autorizados no sólo por el titular de los derechos, sino también por la ley, si bien habrá que tener en cuenta el artículo 6.4 Directiva 2001/29, por lo que respecta a la relación entre las excepciones a los derechos de propiedad intelectual y las medidas tecnológicas. 

Este compromiso se refiere a todas las medidas tecnológicas en general y a las de control de acceso en especial. No obstante, sería conveniente distinguir entre las medidas tecnológicas anticopia y las medidas tecnológicas de control de acceso. No es posible concluir que el uso de cualquier medida tecnológica deba presumir la oposición a la minería, sino que este efecto dependerá del tipo de medida que se utilice por parte de los titulares de derechos. Si se trata de medidas anticopia, cabe presumir esa oposición. Sin embargo, si estamos ante medidas de control del acceso a la obra o prestación, no cabe presumir la oposición, pues cabe entender que, pagando o efectuando la suscripción, es posible la minería respecto de esa obra o prestación -salvo que se haya expresado de una manera más clara la reserva-. Lo único a lo que se refiere este compromiso es a no eludir, en estos casos, la medida tecnológica, pero no a dejar de utilizar tales contenidos.  

El segundo compromiso que deben asumir los proveedores es excluir del rastreo los sitios web que pongan a disposición del público contenidos protegidos y que, en el momento de ese rastreo, hayan sido reconocidos por los tribunales o por las autoridades públicas como infractores persistentes y reiterados de los derechos de autor y de los derechos conexos, en la UE y en el Espacio Económico Europeo (EEE) [punto 1.b) de la medida 2 CBP]. Para dar cumplimiento a este compromiso, se publicará, en algún sitio web de la UE, una lista dinámica de hipervínculos a estos sitios web, emitida por los organismos pertinentes de la UE y del EEE. Obsérvese que no se refiere a cualquier página web que ponga a disposición del público ilícitamente contenidos protegidos, sino únicamente a aquellos que hayan sido “etiquetados” como infractores reiterados por los organismos competentes. Por tanto, quedaría excluido de este compromiso el rastreo de: 1) sitios web que pongan a disposición del público contenidos protegidos de manera ilícita pero que aún no hayan sido declarados infractores por Tribunales u órganos administrativos; 2) sitios web que habiendo sido declarados infractores, no lo sean de manera reiterada, pero sigan permitiendo esos usos ilícitos. Esto podría llegar a poner en verdadero riesgo la protección de los derechos de propiedad intelectual, por no decir que la eficacia de esa lista dependerá su actualización, pues si no se mantiene al día, el cumplimiento del compromiso será bastante limitado. 

La tercera medida tiene por objetivo identificar y cumplir con la reserva de derechos cuando se produce el rastreo de sitios web. Para garantizar que los signatarios identifiquen y cumplan las reservas de derechos realizadas mediante medios de lectura mecánica de conformidad con el artículo 4.3 Directiva 2019/790, tanto si hacen ellos mismos el rastreo como si lo hacen terceros en su nombre para extraer o recopilar datos con fines de minería para el entrenamiento de modelos de IA de uso general, deben asumir dos compromisos. En primer lugar, se comprometen a emplear rastreadores web que lean y sigan las instrucciones expresadas de acuerdo con el protocolo de exclusión de robots (robots.txt), tal como se especifica en la Solicitud de Comentarios (Request for Comments – RFC) número 9309 del Grupo de Trabajo en Ingeniería de Internet (IETF), así como en cualquier versión posterior de dicho Protocolo respecto de la cual el IETF acredite su viabilidad técnica y su posibilidad de implementación tanto por los proveedores de IA como por los proveedores de contenidos, incluyendo los titulares de derechos [punto 1.a) de la medida 3 CBP]. Se trata éste de un método definido originalmente por Martijn Koster en 1994, destinado a controlar la forma en que el contenido ofrecido puede ser accedido por rastreadores (crawlers). En 2022, este protocolo fue ampliado y enmendado por ingenieros de Google (disponible en: https://www.rfc-editor.org/rfc/rfc9309.pdf). A pesar de su actualización, no resulta recomendable apoyarse en protocolos aún en desarrollo, pues esto genera incertidumbre técnica.

Y, en segundo lugar, se comprometen a identificar y cumplir con otros protocolos de lectura mecánica adecuados para expresar reservas de derechos de conformidad con el artículo 4.3 Directiva 2019/790 [punto 1.b) de la medida 3 CBP]. Se ponen como ejemplos los metadatos basados en activos o en la localización, que hayan sido adoptados por organizaciones internacionales o europeas de normalización y que hayan sido ampliamente acordados a través de procedimientos que hayan contado con la participación de los titulares de derechos, los proveedores de IA y otras posibles partes interesadas.

En definitiva, se trata de que los proveedores de modelos de IA de uso general respeten las reservas de derechos que hayan expresado los titulares de propiedad intelectual, oponiéndose a la minería de textos y datos mediante medios de lectura mecánica adecuados. El CBP se refiere al protocolo de exclusión de robots y a los metadatos, pero hay muchos más. El protocolo de exclusión de robots es la manera más habitual que utilizan los sitios web para indicar a los rastreadores a qué partes pueden acceder y a cuáles no. Ahora bien, no es un mecanismo de control de acceso real, pues el archivo robots.txt no bloquea físicamente a los robots, sino que lo que hace es publicar instrucciones que los rastreadores deben decidir si obedecen o no. De ahí que el RFC número 9309 a que alude el CBP aclare que este protocolo es una convención voluntaria, no un permiso ni una prohibición jurídicamente vinculante en sí mismo. Así, los rastreadores respetuosos normalmente cumplirán lo que se les indica, pero un bot malicioso o uno que no siga el estándar podrá ignorar las reglas y acceder igualmente al contenido. Podría decirse que el protocolo robots.txt funciona como un cartel en la puerta donde se indica “no pasar”, pero sería necesario “cerrar con llave esa puerta”, un control de acceso real, como podría ser un mecanismo de autenticación o un firewall. Algo similar ocurre con los metadatos, que se caracterizan por la voluntariedad en su cumplimiento. Ese carácter voluntario se ve ahora comprometido por el CBP, al establecer la adopción del compromiso de respetar los robots.txt y los metadatos utilizados por los titulares de derechos para oponerse a la minería conforme al artículo 4.3 Directiva 2019/790. Dicho esto, el CBP, a través de esta medida, está poniendo una carga excesiva a los titulares de derechos, que tendrán que expresar la reserva de sus derechos a través de formatos específicos que sean adecuados para ser detectados por los proveedores y que la hagan valer. No hay que olvidar, además, que el uso de determinados mecanismos para expresar la reserva puede afectar, al mismo tiempo, a la indexación en buscadores de los contenidos o a su disponibilidad en Internet. Sería bueno, para evitar estos efectos negativos, que se creara un protocolo único de metadatos para llevar a cabo la reserva de derechos que estuviera avalado por la UE y que fuera fácil de implementar por los titulares de derechos.

El CBP señala que el compromiso anterior no afecta al derecho de los titulares de propiedad intelectual a reservarse expresamente el uso de obras y prestaciones para fines de minería conforme al artículo 4.3 Directiva 2019/790 de cualquier manera apropiada, como medios de lectura mecánica en el caso de contenidos puestos a disposición online o por cualesquiera otros medios (punto 2 de la medida 3 CBP). Efectivamente, los proveedores de modelos de IA de uso general no sólo deben respetar los protocolos adoptados por los titulares de derechos como expresión de su oposición a la minería, sino que también deben respetar esa reserva de derechos en otras situaciones. A saber: a) cuando los proveedores utilizan mecanismos de rastreo para el entrenamiento de los modelos y los titulares expresan la reserva de derechos mediante mecanismos distintos a los protocolos apuntados en el punto 1 de la medida 3 CBP; b) cuando los proveedores no utilizan mecanismos de rastreo, sino que llevan a cabo un entrenamiento más “manual”. Cabe recordar que la Directiva 2019/790 no obliga a los titulares de derechos a oponerse mediante protocolos, sino que pueden utilizar otros tipos de medidas de lectura mecánica, cuando ponen sus contenidos a disposición del público online, o incluso declaraciones de voluntad en contra de la minería, no legibles por una máquina. Este punto 2 de la medida 3 CBP y el propio artículo 4.3 Directiva 2019/790 hablan de reservas hechas de “manera adecuada”, citando, a título de ejemplo, los medios de lectura mecánica -el CBP abre la posibilidad de usar “otros medios”-.

Pero el CBP va más allá y establece, en ese mismo punto 2, que este compromiso, el del punto 1 de la medida 3, no afecta a la aplicación del Derecho de la UE en materia de propiedad intelectual para proteger el contenido extraído o rastreado de Internet por terceros y utilizado por los signatarios para los fines de minería y entrenamiento de los modelos de IA de uso general. Por tanto, no sólo se trata de respetar las reservas de derechos, sino también toda la propiedad intelectual en general. De esta manera, se generará responsabilidad no sólo si se incumple una reserva de derechos, sino también si se rastrea y se extrae un contenido online cuyo titular consiente la minería, pero el proveedor va más allá de lo permitido a través de la excepción.

Asimismo, se anima a los signatarios a apoyar los mecanismos señalados en las letras a) y b) del punto 1 de esta medida 3, y a participar voluntariamente y de buena fe en conversaciones con los titulares de derechos y con otras partes interesadas, con el objetivo de desarrollar protocolos y estándares de lectura mecánica adecuados para expresar la reserva de derechos de conformidad con el artículo 4.3 Directiva 2019/790 (punto 3 de la medida 3 CBP).

Además, los signatarios se comprometen a adoptar las medidas pertinentes para permitir que los titulares de derechos afectados obtengan información sobre los rastreadores web utilizados, sus protocolos robots.txt y otras medidas que un signatario haya adoptado para identificar y cumplir con las reservas de derechos expresadas conforme al artículo 4.3 Directiva 2019/790, en el momento del rastreo (punto 4 de la medida 3 CBP). Este compromiso se desdobla en dos medidas: 1) la publicación de dicha información; 2) el establecimiento de un medio para que los titulares de derechos afectados sean automáticamente notificados cuando dicha información sea actualizada, sin perjuicio del derecho de información previsto en el artículo 8 Directiva 2004/48. Esto demuestra que la facultad de oposición otorgada por el artículo 4.3 Directiva 2019/790 no solamente funciona a priori, antes de proceder a la explotación de la obra o prestación por parte del titular, sino también a posteriori. Podría ocurrir que un titular de derechos, de inicio, no se hubiera opuesto a la minería y que, tras descubrir que su contenido está siendo utilizado para entrenar un modelo de IA de uso general a través de la información publicada por su proveedor, decida oponerse. 

Por último, en esta tercera medida se insta a los signatarios que suministren un motor de búsqueda online, tal como se define en el artículo 3.j) Reglamento 2022/2065, o ejerzan el control sobre un prestador que suministre tal servicio, a adoptar las medidas oportunas para garantizar que el cumplimiento de las reservas de derechos realizadas en el marco de la minería de textos y datos, así como el entrenamiento de modelos de IA de uso general, no produzca de manera directa efectos adversos en la indexación del contenido a través de sus motores de búsqueda, de los dominios y/o de las URLs respecto de las cuales se haya expresado la correspondiente reserva de derechos. Se pretende evitar que los proveedores de modelos de IA penalicen a aquellos titulares que se hayan reservado sus derechos, haciéndolos desaparecer o indexándolos en peores puestos cuando ofrecen los resultados de sus motores de búsqueda. Deben tratar en condiciones de igualdad a los titulares que no se reservan sus derechos y permiten el entrenamiento de los modelos de IA con sus obras y prestaciones, y a los titulares que se oponen a ello. De hecho, el Reglamento, entre otros, plantea como objetivo evitar que los algoritmos de recomendación favorezcan sistemáticamente ciertas obras y prestaciones en detrimento de otras. De ahí que obligue a los proveedores de modelos de IA a informar sobre cómo funcionan sus sistemas de recomendación, evitando así la opacidad algorítmica. Se trataría de conseguir, en definitiva, una oferta plural y no discriminatoria, favoreciendo la diversidad cultural, algo que va en la línea del artículo 167.4 TFUE y del Convenio de la UNESCO de 2005 sobre la Protección y Promoción de la Diversidad de las Expresiones Culturales.

La cuarta medida que incorpora el CBP tiene que ver con la necesidad de mitigar el riesgo de que un modelo de IA de uso general dé lugar a resultados (outputs) que infrinjan los derechos de propiedad intelectual. El CBP establece que esta medida cuarta se aplica con independencia de si un signatario integra el modelo en su propio sistema de IA o si el modelo se suministra a otra entidad en virtud de una relación contractual (punto 2 de la medida 4 CBP). Para conseguir ese objetivo, el Código plantea dos compromisos que tendrían que asumir los signatarios. En primer lugar, implantar salvaguardas técnicas adecuadas y proporcionadas destinadas a evitar que estos modelos generen resultados que reproduzcan, de tal manera que se produzca una infracción, los contenidos con los que han sido entrenados y que están protegidos por la propiedad intelectual [punto 1.a) de la medida 4 CBP]. Conviene tener presente que no se trata de evitar cualquier reproducción de obras y prestaciones en el resultado generado por la IA, sino de evitar únicamente aquellas que constituyan una infracción. Recuérdese, a estos efectos, que la excepción de minería contemplada en el artículo 4 Directiva 2019/790 únicamente permite la reproducción de contenidos protegidos como input, esto es, como material para entrenar el modelo, pero no ampara su reproducción en el output. En cambio, sí permitiría la reproducción en los resultados cuando ésta no constituya una infracción, como podría ser el caso en el que se utiliza la IA para generar una parodia, excepción que permite reproducir y transformar determinados elementos característicos de la obra originaria en la obra derivada con el fin de que el público haga mentalmente la asociación entre una y otra, y produzca el efecto humorístico. No obstante, este compromiso es bastante ambiguo, por cuanto no define qué salvaguardas se consideran adecuadas y proporcionadas, dejando una excesiva discrecionalidad al proveedor (ej.: filtros de similitud entre outputs y los contenidos de entrenamiento, mecanismos para detectar el plagio, watermarking).

El segundo compromiso que tendrían que adoptar los signatarios es prohibir, en su política de uso, en sus términos y condiciones o en documentos equivalentes, la utilización de los modelos de tal manera que se infrinjan los derechos de propiedad intelectual, o, en el caso de modelos de IA de uso general distribuidos bajo licencias libres y de código abierto, advertir a los usuarios de la prohibición de usos infractores de los derechos de propiedad intelectual en la documentación que acompañe al modelo [punto 1.b) de la medida 4 CBP]. Así, los usuarios de estos modelos de IA deben ser conscientes de que no pueden vulnerar los derechos de autor y los derechos conexos a través de estas herramientas (ej.: entrenándolos con contenidos a los que hayan tenido un acceso ilícito). La eficacia de esta medida es bastante relativa, por cuanto, hoy en día, muchos sitios web advierten de esta cuestión y, a pesar de ello, se siguen cometiendo infracciones. Hay un exceso de confianza en estas políticas de uso, que vienen a jugar un rol más declarativo que preventivo. El proveedor debería plantearse el contemplar algún tipo de sanción para el usuario que incumpla (ej.: el cierre o la suspensión de la suscripción).

Finalmente, la quinta medida se refiere a la designación de un punto de contacto para permita la presentación de reclamaciones. A estos efectos, los signatarios se comprometen a establecer un punto de contacto para la comunicación electrónica con los titulares de derechos afectados y a proporcionar información fácilmente accesible al respecto (punto 1 de la medida 5 CBP). Además, se comprometen a establecer un mecanismo que permita a los titulares de derechos afectados y a sus representantes autorizados, como pudieran ser las entidades de gestión, presentar, por vía electrónica, reclamaciones debidamente fundamentadas relativas al incumplimiento por parte de los signatarios de sus compromisos conforme al CBP, así como a proporcionar información fácilmente accesible al respecto (punto 2 de la medida 5 CBP). El Código señala que los signatarios deben actuar de forma diligente, no arbitraria y en un plazo razonable ante las reclamaciones, salvo que sean manifiestamente infundadas o que el signatario ya haya respondido a una idéntica presentada por el mismo titular de derechos. No obstante, este compromiso no afecta a las medidas, recursos y sanciones disponibles para hacer cumplir los derechos de propiedad intelectual conforme al Derecho de la UE y al Derecho nacional de los Estados miembros en esta materia. Como no podía ser de otro modo, este mecanismo no impide que los titulares de propiedad intelectual ejerciten las correspondientes acciones en defensa de sus derechos. 

Esta medida plantea varias inseguridades. En primer lugar, la de determinar cuándo una reclamación está suficientemente fundada como para que el proveedor del modelo de IA se tome la molestia de tramitarla. Está claro que un mínimo de fundamentación deben tener, para así evitar el riesgo de saturación a los proveedores con quejas nimias -piénsese, por ejemplo, que un proveedor pequeño puede no tener la infraestructura necesaria para gestionar un elevado número de reclamaciones de manera eficiente, de ahí que el considerando d) CBP señale que, en el cumplimiento de los compromisos, deberá tenerse en cuenta el tamaño de los proveedores, permitiendo la flexibilidad-. Quizá sería conveniente que, desde la UE, se estableciera un formulario común que ayude a los titulares de derechos a presentarlas debidamente fundamentadas. Y, en segundo lugar, la ausencia de un plazo claro y obligatorio en el que el proveedor deba responder a la reclamación. Habría sido más eficiente establecer un plazo al estilo de lo que ocurre en el Derecho de consumo (ej.: treinta días naturales). La Oficina de IA deberá supervisar y hacer seguimiento de estos procesos para comprobar que se siguen los compromisos asumidos conforme al CBP, pues habrá que evitar que los proveedores incurran en arbitrariedad a la hora de resolverlas o en una desestimación sistemática sin ningún tipo de justificación. Al menos, las decisiones de los proveedores deberían ser recurribles ante la Oficina. Incluso no sería descabellado exigir a éstos que publiquen periódicamente, y en virtud del principio de transparencia, el número de quejas recibidas, el tiempo medio de respuesta y el porcentaje de quejas aceptadas y rechazadas.

En definitiva, el CBP tiene un objetivo claro y alineado con la normativa europea en materia de propiedad intelectual. Sin embargo, la falta de obligatoriedad en la adhesión y su carácter orientativo pudieran llevar al código a constituir una herramienta insuficiente para la protección de estos derechos. A ello contribuye también la ambigüedad en determinadas medidas técnicas. Considero que habría sido más eficiente presentarlo como un documento de mínimos, a partir del cual los proveedores tienen libertad y flexibilidad para dar cumplimiento con los compromisos. Habrá que esperar a ver si verdaderamente cumple su cometido.

 

 

ENTRENAMIENTO DE LA INTELIGENCIA ARTIFICIAL: ¿ES LA LICENCIA COLECTIVA LA VÍA PARA AUTORIZAR LA MINERÍA DE OBRAS Y PRESTACIONES PROTEGIDAS?

(El autor es estudiante de la XIX Edición del Máster en Propiedad Intelectual, Industrial y NN.TT.)

Las implicaciones de la inteligencia artificial (IA) han sido el foco principal de reflexión y debate en relación con los derechos de propiedad intelectual en los últimos tiempos. Este fenómeno ha provocado y seguirá provocando un cambio de paradigma en la concepción y configuración de los derechos de autor y afines. El debate en torno a la IA y su conexión con la propiedad intelectual tiene tantos capítulos como fases tiene el proceso de creación y uso de los modelos de IA.

En este artículo, la reflexión se centra en la fase de entrenamiento. Para desarrollar modelos de IA de uso general, incluyendo modelos generativos como ChatGPT, Copilot o Gemini, es necesario "entrenarlos", es decir, introducir textos y/o datos para el proceso de aprendizaje del modelo. Estos datos configuran la "experiencia" del modelo y son la fuente de la que extrae la información necesaria para cumplir su función.

Uno de los pasos clave en este entrenamiento es la minería de textos y datos. Este proceso se define en la Directiva (UE) 2019/790, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital (Directiva 2019/790) (1), en el artículo 2, apartado 2, como "toda técnica analítica automatizada destinada a analizar textos y datos en formato digital a fin de generar información que incluye, sin carácter exhaustivo, pautas, tendencias o correlaciones". Estos textos y datos pueden ser mera información o contenidos protegidos por derechos de propiedad intelectual.

En el proceso de minado se realizan actos de reproducción del contenido o de extracción cuando se trata de una base de datos, y estos actos los contempla la legislación en propiedad intelectual, definiendo quién y cómo los puede realizar. Por lo tanto, en la pugna entre el respeto absoluto de los derechos de propiedad intelectual y el desarrollo de la IA, el legislador se ha decantado por una vía intermedia: establecer la minería de textos y datos como un límite a los derechos de autor y a los derechos conexos, siempre que se cumplan determinadas condiciones.

Así, la Directiva 2019/790 incorpora este límite o excepción. En el artículo 3 se establece una excepción aplicable a las reproducciones y extracciones de obras y otras prestaciones protegidas realizadas por organismos de investigación e instituciones responsables del patrimonio cultural con fines de investigación científica. El artículo 4 no establece un límite en sentido estricto, sino una especie de licencia implícita aplicable a las reproducciones y extracciones de obras y otras prestaciones protegidas realizadas por cualquier otro usuario o para fines diferentes de la investigación científica.

Esta última es en la que se centra el presente estudio, ya que en ella el titular de los derechos tiene la capacidad de reservarse los usos mediante el mecanismo de autoexclusión voluntaria, también conocido como opt out.

En noviembre del pasado año, el Ministerio de Cultura publicó un Proyecto de Real Decreto (2) titulado "Proyecto de Real Decreto por el que se regula la concesión de licencias colectivas ampliadas para la explotación masiva de obras y prestaciones protegidas por derechos de propiedad intelectual para el desarrollo de modelos de inteligencia artificial de uso general".

El objetivo del proyecto era desarrollar el artículo 67 del Real Decreto Ley 24/2021, en el que está traspuesto el límite de minería, para otorgar un mandato ex lege a las entidades de gestión para la concesión de licencias en nombre de los titulares, tanto de los que han autorizado a la entidad correspondiente mediante un contrato de gestión como de los que no lo han hecho.

Este Proyecto de Real Decreto fue retirado a finales de enero. El objeto de este estudio es analizar algunas razones por las cuales el mecanismo de licencia colectiva con efecto ampliado no es el más adecuado para la minería de textos y datos para sistemas de IA.

Las licencias colectivas con efecto ampliado son un mecanismo regulado en el artículo 12 de la Directiva 2019/790. Permiten a los Estados miembros establecer la extensión de los acuerdos de licencias que otorgan las entidades de gestión para que estos abarquen también los derechos de titulares a los cuales no representan. Los titulares que no han mandatado la gestión a la entidad correspondiente tienen la capacidad de oponerse de forma expresa a esta extensión, ya que el mecanismo no supone el paso a un sistema de gestión colectiva obligatoria.

Es importante delimitar a qué colectivo afectaría este mecanismo. Se trata de los titulares que han ejercido su derecho al opt out y han retenido para sí la facultad de autorizar la minería de textos y datos. Al resto de titulares, los que no han ejercitado el opt out, se les aplica la excepción del artículo 4 de la Directiva 2019/790, y no se requiere la obtención de licencia para el minado de sus obras y prestaciones.

El Proyecto de Real Decreto asumía que los titulares que ejercen el opt out buscan un rédito económico mediante una remuneración por la gestión colectiva, sin que se sustente esta afirmación en ningún dato estadístico o informe. La realidad es que, quien realiza esta reserva expresa de derechos manifiesta su voluntad de retener los derechos exclusivos frente al uso, en este caso, para la minería de textos y datos. Esa decisión podría responder a una verdadera voluntad de que las obras y prestaciones protegidas por derechos de propiedad intelectual no fueran utilizadas en el entrenamiento de sistemas de IA generativa (3), no como una herramienta para lograr su monetización.

La jurisprudencia del Tribunal de Justicia de la Unión Europea (TJUE), en sentencias como Painer (4) o Infopaq (5), defiende que los derechos exclusivos deben entenderse de manera que permitan a los titulares controlar no solo la explotación económica de sus obras y prestaciones, sino también cualquier acto que pueda afectar su uso. Esto incluye la capacidad de autorizar o prohibir la reproducción, distribución, comunicación pública y transformación de sus obras.

La implementación de una licencia colectiva con efecto ampliado afecta a este ejercicio pleno de los derechos exclusivos. Como con toda norma que tenga carácter excepcional por su afectación, el legislador debe partir de hechos suficientemente contrastados gracias a análisis estadísticos e informes, para, oídas todas las partes concernidas, acreditada su necesidad, ponderarla y aplicarla de la manera menos perjudicial para los derechos afectados. En el caso del Proyecto de Real Decreto, esta operación no se realizó.

El proyecto partía de dos premisas para justificar la implementación de una licencia colectiva ampliada. La primera, que los titulares que ejercen el opt out buscan licenciar sus obras colectivamente debido a la dificultad o imposibilidad de gestionar licencias individuales. Sin embargo, esta afirmación no ha sido apoyada con datos e informaciones obtenidos con el más elemental rigor.

La segunda premisa asumía que, para la mayoría de estos titulares, las condiciones de la licencia no son una cuestión importante, preocupándoles únicamente las condiciones económicas.

El legislador europeo, en el considerando 18 de la Directiva 2019/790, expone que cuando un titular se reserva los derechos exclusivos sobre la minería de textos y datos, lo hace para "evitar la prospección de textos y datos". Por lo tanto, esta reserva no se hace exclusivamente para obtener un rédito económico. Así se desprende también del considerando 105 del Reglamento de Inteligencia Artificial (6).

Sin este trabajo previo de investigación riguroso que acredite las premisas de necesidad, el legislador español no tiene fundamento para afectar de tal manera la facultad de los titulares de ejercer el opt out. De lo contrario, se estaría expropiando un derecho de propiedad privada sin justificar una medida de tal magnitud.

La posición del TJUE en la sentencia Marc Soulier (7) es relevante. En este caso, una ley francesa permitía que una sociedad de gestión colectiva otorgara licencias para la explotación digital de libros fuera del circuito comercial, presumiendo el consentimiento de los autores por falta de oposición.

El TJUE interpretó que esta presunción no estaba justificada, ya que no existía prueba de que la intención de los autores fuera continuar explotando sus obras mediante gestión colectiva. En consecuencia, una normativa nacional similar en el ámbito de la minería de textos y datos podría recibir la misma respuesta.

Algunos podrían argumentar que los titulares tienen la capacidad de excluir sus obras de la licencia mediante un segundo opt out ante la entidad de gestión correspondiente. Sin embargo, esta facultad de exclusión no hace por sí misma que el mecanismo sea adecuado ni justifica su implementación. La justificación debe venir de la necesidad e idoneidad del mecanismo en sí, no de la capacidad de realizar un opt out adicional.

Obligar a los titulares que ya han efectuado el opt out a realizar un segundo opt out es desproporcionado respecto a la configuración de la excepción del artículo 4 de la Directiva 2019/790. El legislador europeo diseñó mecanismos de reserva de derechos que los titulares pueden ejecutar en su entorno, por ejemplo, mediante indicaciones en la obra o en su página web. La Directiva permite que los titulares ejerciten el opt out de manera sencilla y efectiva, sin cargas adicionales.

El mecanismo propuesto en el proyecto de RD implicaba que el titular debía manifestar nuevamente su posición, esta vez ante las entidades de gestión correspondientes. Si un titular tenía obras que correspondían a diferentes entidades, debía realizar tantos opt out como entidades pudieran licenciar sus obras. Esto rompe el equilibrio que buscaba el legislador europeo y podría haberse considerado contrario a la Directiva 2019/790.

Además, las entidades de gestión habrían estado obligadas a publicitar adecuadamente la existencia de la licencia colectiva y los mecanismos necesarios para que los titulares hubieran podido excluir sus obras. Esto habría implicado una carga adicional tanto para los titulares como para las entidades de gestión. La misma actuación que se exigiría en el mecanismo propuesto es la que deben realizar los titulares que desean mandatar voluntariamente a las entidades de gestión.

Por consiguiente, el mandato voluntario es la opción más protectora de los derechos de los titulares y respeta el equilibrio establecido por el legislador europeo en la configuración de la excepción a la minería de textos y datos.

Además, existe una razón de peso por la que las entidades de gestión no pueden ser mandatarias del derecho exclusivo en virtud de un mecanismo de licencia colectiva con efecto ampliado. Según el artículo 12.3.a) de la Directiva 2019/790, las entidades de gestión deben ser "suficientemente representativas de los titulares de derechos por lo que se refiere al tipo pertinente de obras u otras prestaciones y de los derechos objeto de la licencia".

En este caso, los titulares relevantes son aquellos que han ejercido el opt out. Para cumplir con la exigencia de representatividad, las entidades de gestión españolas deberían contar con un número suficientemente representativo de mandatos de estos titulares para gestionar su derecho exclusivo. Esta situación no se ha verificado, por lo que, a la luz de la normativa europea, las entidades de gestión españolas no cuentan con la representatividad requerida.

En conclusión, el mecanismo que proponía el Proyecto de Real Decreto, tanto desde el punto de vista de los titulares afectados como desde el de las entidades de gestión, era contrario a la concepción jurídica de los derechos exclusivos y del propio mecanismo de licencia colectiva regulado por el legislador europeo.

En relación con la potestad del Gobierno para regular mediante Real Decreto las licencias colectivas con efecto ampliado, conviene tener en cuenta lo que se expone en las observaciones del CIPI al proyecto (8), donde se realiza un análisis más profundo sobre esta cuestión y se ponen de manifiesto diversas deficiencias jurídicas del texto propuesto.

Tal y como se explica allí, no es posible limitar un derecho exclusivo como el de reproducción mediante una norma reglamentaria, ya que el derecho de propiedad intelectual, en cuanto manifestación del derecho de propiedad reconocido en el artículo 33 de la Constitución Española, solo puede ser regulado por ley, conforme a lo dispuesto en el artículo 53.1. Cualquier otra vía supondría una vulneración del principio de jerarquía normativa establecido en el artículo 9.3 de la Constitución.

Además, como última reflexión que saco de la lectura de un informe de la revista Pe.i (9), si el Real Decreto hubiera prosperado y se implementara el mecanismo de licencia colectiva con efecto ampliado para la minería de textos y datos, la consecuencia podría ser contraria a la buscada por el legislador español. Podría producirse un traslado en masa de las empresas tecnológicas, que situarían sus servidores en otros estados para sortear la aplicación del mecanismo, produciendo el resultado opuesto al deseado.

Entendiendo el interés del legislador español por abordar las implicaciones de la IA en relación con los derechos de autor, es importante no apresurarse en adoptar medidas que puedan generar más problemas que soluciones. A veces, la mejor manera de resolver un problema es no crearlo.

 

(1) https://www.boe.es/doue/2019/130/L00092-00125.pdf

(2) https://efe.com/ciencia-y-tecnologia/2025-01-28/cultura-licencias-ia-inteligencia-artificial-decreto/

(3) Así, por ejemplo, la cláusula-tipo propuesta por PASAVE en https://pasave.org/clausula puesta en relación con el manifiesto de esta plataforma.

(4) Painer, C-145/10, de 1 de diciembre de 2011, EU:C:2011:798

(5) Infopaq International, C-5/08, de 16 de julio de 2009, EU:C:2009:465

(6) https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81079

(7) Marc Soulier y Doke, C-301/15, de 16 de noviembre de 2016, EU:C:2016:878

(8) Aportaciones del CIPI, al Proyecto de R.D, realizado por Pilar Cámara Águila, Sebastián López Maza, Gemma Minero Alejandre y Carla Bragado Herrero de Egaña https://www.pei-revista.com/numeros-publicados/n%C3%BAmero-78-septiembre-diciembre-2024/aportaciones-del-cipi,-al-proyecto-de-r-d-por-el-que-se-regula-la-concesi%C3%B3n-de-licencias-colectivas-ampliadas-para-la-explotaci%C3%B3n-masiva-de-obras-detail

(9) Informe realizado por los abogados Rafael Sánchez Aristi y Álvaro Bourkaib Fernández de Córdoba https://www.pei-revista.com/numeros-publicados/n%C3%BAmero-77-mayo-agosto-2-024/informe-sobre-el-posible-establecimiento-de-un-mecanismo-de-licencia-colectiva-con-efecto-ampliado,-o-de-remuneraci%C3%B3n-o-compensaci%C3%B3n-equitativa-de-gesti%C3%B3n-colectiva-obligatoria

ENTRENAMIENTO DE LA INTELIGENCIA ARTIFICIAL: ¿ES LA LICENCIA COLECTIVA LA VÍA PARA AUTORIZAR LA MINERÍA DE OBRAS Y PRESTACIONES PROTEGIDAS?

(El autor es estudiante de la XIX Edición del Máster en Propiedad Intelectual, Industrial y NN.TT.)

Las implicaciones de la inteligencia artificial (IA) han sido el foco principal de reflexión y debate en relación con los derechos de propiedad intelectual en los últimos tiempos. Este fenómeno ha provocado y seguirá provocando un cambio de paradigma en la concepción y configuración de los derechos de autor y afines. El debate en torno a la IA y su conexión con la propiedad intelectual tiene tantos capítulos como fases tiene el proceso de creación y uso de los modelos de IA.

En este artículo, la reflexión se centra en la fase de entrenamiento. Para desarrollar modelos de IA de uso general, incluyendo modelos generativos como ChatGPT, Copilot o Gemini, es necesario "entrenarlos", es decir, introducir textos y/o datos para el proceso de aprendizaje del modelo. Estos datos configuran la "experiencia" del modelo y son la fuente de la que extrae la información necesaria para cumplir su función.

Uno de los pasos clave en este entrenamiento es la minería de textos y datos. Este proceso se define en la Directiva (UE) 2019/790, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital (Directiva 2019/790) (1), en el artículo 2, apartado 2, como "toda técnica analítica automatizada destinada a analizar textos y datos en formato digital a fin de generar información que incluye, sin carácter exhaustivo, pautas, tendencias o correlaciones". Estos textos y datos pueden ser mera información o contenidos protegidos por derechos de propiedad intelectual.

En el proceso de minado se realizan actos de reproducción del contenido o de extracción cuando se trata de una base de datos, y estos actos los contempla la legislación en propiedad intelectual, definiendo quién y cómo los puede realizar. Por lo tanto, en la pugna entre el respeto absoluto de los derechos de propiedad intelectual y el desarrollo de la IA, el legislador se ha decantado por una vía intermedia: establecer la minería de textos y datos como un límite a los derechos de autor y a los derechos conexos, siempre que se cumplan determinadas condiciones.

Así, la Directiva 2019/790 incorpora este límite o excepción. En el artículo 3 se establece una excepción aplicable a las reproducciones y extracciones de obras y otras prestaciones protegidas realizadas por organismos de investigación e instituciones responsables del patrimonio cultural con fines de investigación científica. El artículo 4 no establece un límite en sentido estricto, sino una especie de licencia implícita aplicable a las reproducciones y extracciones de obras y otras prestaciones protegidas realizadas por cualquier otro usuario o para fines diferentes de la investigación científica.

Esta última es en la que se centra el presente estudio, ya que en ella el titular de los derechos tiene la capacidad de reservarse los usos mediante el mecanismo de autoexclusión voluntaria, también conocido como opt out.

En noviembre del pasado año, el Ministerio de Cultura publicó un Proyecto de Real Decreto (2) titulado "Proyecto de Real Decreto por el que se regula la concesión de licencias colectivas ampliadas para la explotación masiva de obras y prestaciones protegidas por derechos de propiedad intelectual para el desarrollo de modelos de inteligencia artificial de uso general".

El objetivo del proyecto era desarrollar el artículo 67 del Real Decreto Ley 24/2021, en el que está traspuesto el límite de minería, para otorgar un mandato ex lege a las entidades de gestión para la concesión de licencias en nombre de los titulares, tanto de los que han autorizado a la entidad correspondiente mediante un contrato de gestión como de los que no lo han hecho.

Este Proyecto de Real Decreto fue retirado a finales de enero. El objeto de este estudio es analizar algunas razones por las cuales el mecanismo de licencia colectiva con efecto ampliado no es el más adecuado para la minería de textos y datos para sistemas de IA.

Las licencias colectivas con efecto ampliado son un mecanismo regulado en el artículo 12 de la Directiva 2019/790. Permiten a los Estados miembros establecer la extensión de los acuerdos de licencias que otorgan las entidades de gestión para que estos abarquen también los derechos de titulares a los cuales no representan. Los titulares que no han mandatado la gestión a la entidad correspondiente tienen la capacidad de oponerse de forma expresa a esta extensión, ya que el mecanismo no supone el paso a un sistema de gestión colectiva obligatoria.

Es importante delimitar a qué colectivo afectaría este mecanismo. Se trata de los titulares que han ejercido su derecho al opt out y han retenido para sí la facultad de autorizar la minería de textos y datos. Al resto de titulares, los que no han ejercitado el opt out, se les aplica la excepción del artículo 4 de la Directiva 2019/790, y no se requiere la obtención de licencia para el minado de sus obras y prestaciones.

El Proyecto de Real Decreto asumía que los titulares que ejercen el opt out buscan un rédito económico mediante una remuneración por la gestión colectiva, sin que se sustente esta afirmación en ningún dato estadístico o informe. La realidad es que, quien realiza esta reserva expresa de derechos manifiesta su voluntad de retener los derechos exclusivos frente al uso, en este caso, para la minería de textos y datos. Esa decisión podría responder a una verdadera voluntad de que las obras y prestaciones protegidas por derechos de propiedad intelectual no fueran utilizadas en el entrenamiento de sistemas de IA generativa (3), no como una herramienta para lograr su monetización.

La jurisprudencia del Tribunal de Justicia de la Unión Europea (TJUE), en sentencias como Painer (4) o Infopaq (5), defiende que los derechos exclusivos deben entenderse de manera que permitan a los titulares controlar no solo la explotación económica de sus obras y prestaciones, sino también cualquier acto que pueda afectar su uso. Esto incluye la capacidad de autorizar o prohibir la reproducción, distribución, comunicación pública y transformación de sus obras.

La implementación de una licencia colectiva con efecto ampliado afecta a este ejercicio pleno de los derechos exclusivos. Como con toda norma que tenga carácter excepcional por su afectación, el legislador debe partir de hechos suficientemente contrastados gracias a análisis estadísticos e informes, para, oídas todas las partes concernidas, acreditada su necesidad, ponderarla y aplicarla de la manera menos perjudicial para los derechos afectados. En el caso del Proyecto de Real Decreto, esta operación no se realizó.

El proyecto partía de dos premisas para justificar la implementación de una licencia colectiva ampliada. La primera, que los titulares que ejercen el opt out buscan licenciar sus obras colectivamente debido a la dificultad o imposibilidad de gestionar licencias individuales. Sin embargo, esta afirmación no ha sido apoyada con datos e informaciones obtenidos con el más elemental rigor.

La segunda premisa asumía que, para la mayoría de estos titulares, las condiciones de la licencia no son una cuestión importante, preocupándoles únicamente las condiciones económicas.

El legislador europeo, en el considerando 18 de la Directiva 2019/790, expone que cuando un titular se reserva los derechos exclusivos sobre la minería de textos y datos, lo hace para "evitar la prospección de textos y datos". Por lo tanto, esta reserva no se hace exclusivamente para obtener un rédito económico. Así se desprende también del considerando 105 del Reglamento de Inteligencia Artificial (6).

Sin este trabajo previo de investigación riguroso que acredite las premisas de necesidad, el legislador español no tiene fundamento para afectar de tal manera la facultad de los titulares de ejercer el opt out. De lo contrario, se estaría expropiando un derecho de propiedad privada sin justificar una medida de tal magnitud.

La posición del TJUE en la sentencia Marc Soulier (7) es relevante. En este caso, una ley francesa permitía que una sociedad de gestión colectiva otorgara licencias para la explotación digital de libros fuera del circuito comercial, presumiendo el consentimiento de los autores por falta de oposición.

El TJUE interpretó que esta presunción no estaba justificada, ya que no existía prueba de que la intención de los autores fuera continuar explotando sus obras mediante gestión colectiva. En consecuencia, una normativa nacional similar en el ámbito de la minería de textos y datos podría recibir la misma respuesta.

Algunos podrían argumentar que los titulares tienen la capacidad de excluir sus obras de la licencia mediante un segundo opt out ante la entidad de gestión correspondiente. Sin embargo, esta facultad de exclusión no hace por sí misma que el mecanismo sea adecuado ni justifica su implementación. La justificación debe venir de la necesidad e idoneidad del mecanismo en sí, no de la capacidad de realizar un opt out adicional.

Obligar a los titulares que ya han efectuado el opt out a realizar un segundo opt out es desproporcionado respecto a la configuración de la excepción del artículo 4 de la Directiva 2019/790. El legislador europeo diseñó mecanismos de reserva de derechos que los titulares pueden ejecutar en su entorno, por ejemplo, mediante indicaciones en la obra o en su página web. La Directiva permite que los titulares ejerciten el opt out de manera sencilla y efectiva, sin cargas adicionales.

El mecanismo propuesto en el proyecto de RD implicaba que el titular debía manifestar nuevamente su posición, esta vez ante las entidades de gestión correspondientes. Si un titular tenía obras que correspondían a diferentes entidades, debía realizar tantos opt out como entidades pudieran licenciar sus obras. Esto rompe el equilibrio que buscaba el legislador europeo y podría haberse considerado contrario a la Directiva 2019/790.

Además, las entidades de gestión habrían estado obligadas a publicitar adecuadamente la existencia de la licencia colectiva y los mecanismos necesarios para que los titulares hubieran podido excluir sus obras. Esto habría implicado una carga adicional tanto para los titulares como para las entidades de gestión. La misma actuación que se exigiría en el mecanismo propuesto es la que deben realizar los titulares que desean mandatar voluntariamente a las entidades de gestión.

Por consiguiente, el mandato voluntario es la opción más protectora de los derechos de los titulares y respeta el equilibrio establecido por el legislador europeo en la configuración de la excepción a la minería de textos y datos.

Además, existe una razón de peso por la que las entidades de gestión no pueden ser mandatarias del derecho exclusivo en virtud de un mecanismo de licencia colectiva con efecto ampliado. Según el artículo 12.3.a) de la Directiva 2019/790, las entidades de gestión deben ser "suficientemente representativas de los titulares de derechos por lo que se refiere al tipo pertinente de obras u otras prestaciones y de los derechos objeto de la licencia".

En este caso, los titulares relevantes son aquellos que han ejercido el opt out. Para cumplir con la exigencia de representatividad, las entidades de gestión españolas deberían contar con un número suficientemente representativo de mandatos de estos titulares para gestionar su derecho exclusivo. Esta situación no se ha verificado, por lo que, a la luz de la normativa europea, las entidades de gestión españolas no cuentan con la representatividad requerida.

En conclusión, el mecanismo que proponía el Proyecto de Real Decreto, tanto desde el punto de vista de los titulares afectados como desde el de las entidades de gestión, era contrario a la concepción jurídica de los derechos exclusivos y del propio mecanismo de licencia colectiva regulado por el legislador europeo.

En relación con la potestad del Gobierno para regular mediante Real Decreto las licencias colectivas con efecto ampliado, conviene tener en cuenta lo que se expone en las observaciones del CIPI al proyecto (8), donde se realiza un análisis más profundo sobre esta cuestión y se ponen de manifiesto diversas deficiencias jurídicas del texto propuesto.

Tal y como se explica allí, no es posible limitar un derecho exclusivo como el de reproducción mediante una norma reglamentaria, ya que el derecho de propiedad intelectual, en cuanto manifestación del derecho de propiedad reconocido en el artículo 33 de la Constitución Española, solo puede ser regulado por ley, conforme a lo dispuesto en el artículo 53.1. Cualquier otra vía supondría una vulneración del principio de jerarquía normativa establecido en el artículo 9.3 de la Constitución.

Además, como última reflexión que saco de la lectura de un informe de la revista Pe.i (9), si el Real Decreto hubiera prosperado y se implementara el mecanismo de licencia colectiva con efecto ampliado para la minería de textos y datos, la consecuencia podría ser contraria a la buscada por el legislador español. Podría producirse un traslado en masa de las empresas tecnológicas, que situarían sus servidores en otros estados para sortear la aplicación del mecanismo, produciendo el resultado opuesto al deseado.

Entendiendo el interés del legislador español por abordar las implicaciones de la IA en relación con los derechos de autor, es importante no apresurarse en adoptar medidas que puedan generar más problemas que soluciones. A veces, la mejor manera de resolver un problema es no crearlo.

 

(1) https://www.boe.es/doue/2019/130/L00092-00125.pdf

(2) https://efe.com/ciencia-y-tecnologia/2025-01-28/cultura-licencias-ia-inteligencia-artificial-decreto/

(3) Así, por ejemplo, la cláusula-tipo propuesta por PASAVE en https://pasave.org/clausula puesta en relación con el manifiesto de esta plataforma.

(4) Painer, C-145/10, de 1 de diciembre de 2011, EU:C:2011:798

(5) Infopaq International, C-5/08, de 16 de julio de 2009, EU:C:2009:465

(6) https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81079

(7) Marc Soulier y Doke, C-301/15, de 16 de noviembre de 2016, EU:C:2016:878

(8) Aportaciones del CIPI, al Proyecto de R.D, realizado por Pilar Cámara Águila, Sebastián López Maza, Gemma Minero Alejandre y Carla Bragado Herrero de Egaña https://www.pei-revista.com/numeros-publicados/n%C3%BAmero-78-septiembre-diciembre-2024/aportaciones-del-cipi,-al-proyecto-de-r-d-por-el-que-se-regula-la-concesi%C3%B3n-de-licencias-colectivas-ampliadas-para-la-explotaci%C3%B3n-masiva-de-obras-detail

(9) Informe realizado por los abogados Rafael Sánchez Aristi y Álvaro Bourkaib Fernández de Córdoba https://www.pei-revista.com/numeros-publicados/n%C3%BAmero-77-mayo-agosto-2-024/informe-sobre-el-posible-establecimiento-de-un-mecanismo-de-licencia-colectiva-con-efecto-ampliado,-o-de-remuneraci%C3%B3n-o-compensaci%C3%B3n-equitativa-de-gesti%C3%B3n-colectiva-obligatoria

ALGUNAS REFLEXIONES SOBRE EL COPYRIGHTABILITY REPORT DE LA US COPYRIGHT OFFICE.

 

(La autora es Profesora Contratada Doctora de Derecho civil UAM (acreditada a TU) y miembro del equipo de dirección del CIPI - UAM)

 

No es la primera vez -y, posiblemente, tampoco será la última- que en este blog hablamos de la postura adoptada por la United States Copyright Office -en adelante, USCO- ante las solicitudes de registro de resultados generados por sistemas de inteligencia artificial. Ya lo hicimos aquí en relación con el caso “A Recent Entrance to Paradise”; aquí, en referencia al caso “Zayra of the Dawn”; y aquí cuando hablamos del caso “SURYAST”.

También hemos dado cuenta de la resolución de la USCO “Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence”, conocida como la “AI Registration Guidance” (88 Fed. Reg. 16,190, 16,192), publicada el 16 de marzo de 2023, que es accesible a través de su página web y comentada en esta entrada del blog.

De acuerdo con los datos de este registro público, desde la publicación de la guía de 2023 se han registrado cientos de obras que incorporan material generado por IA, siendo que el registro -la protección por el copyright- únicamente cubre la contribución realizada por un autor humano a la obra. Entre los comentaristas que enviaron aportaciones a la USCO se encuentran productores musicales y audiovisuales, que afirman emplear sistemas de IA como parte de su proceso creativo, para desarrollar ritmos o mezclar pistas musicales, así como para corregir colores, agudizar detalles de efectos especiales o desenfocar, eliminar objetos grabados o modificar la apariencia física para incrementar o reducir la edad de los actores. Asimismo, los comentaristas reconocen el uso habitual de sistemas de IA en la fase inicial del proceso creativo, como parte de la tarea de búsqueda de lluvia de ideas o borrador.

En esta entrada, nos centraremos en la Parte II del Report on Copyright and Artificial Intelligence emitido con fecha de 29 de enero de 2025, con el título “Copyrightability”, accesible aquí. Un documento de 52 páginas que resulta de gran interés, tanto por las afirmaciones que contiene, como por los ejemplos que sirven de ilustración. En él se analizan el tipo y el nivel de contribución humana suficiente para poder proteger por derechos de autor los resultados -outputs- generados por la IA.

Recordemos que en 2024 la USCO publicó la primera parte de este informe -el Report que llevó por título “Digital Replicas”, que es accesible aquí-. Todos estos documentos forman parte de la iniciativa de la USCO anunciada en 2023: realizar un estudio general de la intersección entre la IA y la propiedad intelectual.

La USCO parte del hecho de que el uso de la tecnología en la producción de obras de autor no es algo nuevo, dado que los autores han utilizado tecnología asistida por ordenador durante décadas para mejorar y modificar sus creaciones. Este problema ya se planteó en la década de los sesenta, en relación con los programas de ordenador.

Ya entonces se discutía si existía o no autoría humana. Y ya entonces la respuesta que se dio sigue vigente ahora: no existe una contestación única aplicable a todos los supuestos, sino que debe analizarse si el ordenador fue un mero instrumento de asistencia del autor humano, o si los elementos tradicionales de autoría en la obra (expresión literaria, artística o musical o elementos de selección, arreglo, etc.) fueron, en realidad, concebidos y ejecutados por una máquina.

Tampoco actualmente la respuesta que se dé puede ser categórica, en el sentido de denegar el registro de toda obra en cuya creación se haya empleado una IA. Habrá que estar a las circunstancias fácticas del caso. Sostiene la USCO que ni el uso de la IA como mera herramienta de asistencia en el proceso creativo, ni la incorporación de contenido generado por IA en una obra más grande sujeta a derechos de autor afectan la disponibilidad de protección por derechos de autor a la obra en su conjunto.

A la pregunta de si deberían los productos generados por IA gozar de protección de derechos de autor, la respuesta que procede dar depende de la naturaleza y el alcance de la contribución que haya realizado un ser humano en el caso concreto, pues ello determinará la existencia de autoría humana de los elementos expresivos contenidos en el producto de que se trate.

Un segundo punto de partida de la USCO tiene que ver con la flexibilidad del derecho de autor para expandirse a nuevos tipos de obras, para responder a las nuevas tecnologías y a los nuevos medios.

La novedad de la tecnología actual es que el sistema de IA genera el output a partir de la introducción de uno o varios prompts, yendo desde indicaciones muy breves y simples hasta otras muy detalladas, y pudiendo ingresarse dichos prompts una única vez o de manera reiterada, incluso cientos o miles de veces, con el objetivo de refinar el resultado generado por el sistema de IA, hasta que el output generado efectivamente satisfaga las necesidades del usuario. El tiempo y el esfuerzo humano empleado en cada caso será diferente.

Como explica la USCO, el sistema de IA puede generar un resultado excluyendo algún concreto contenido que el usuario ha querido discriminar expresamente, pero también puede incluir contenido que el usuario no haya especificado, por lo que existen importantes dosis de incertidumbre sobre la interpretación que cada sistema de IA -construido con miles de millones de parámetros- realizará de cada prompt, siendo que la lógica que explica las decisiones tomadas por cada modelo es compleja, dado que al poder predictivo de las redes neuronales que permiten el funcionamiento de esos sistemas se le suma cierta arbitrariedad -de difícil interpretación y predicción para el ser humano-. El grado de imprevisibilidad llega al punto de que un sistema de IA puede generar resultados diferentes a partir de prompts o solicitudes idénticas.

La base jurídica de la que parte la USCO en su informe es el principio humanista: el copyright exige la existencia de autoría humana, tal y como el Tribunal Supremo viene interpretando la Constitución y la Copyright Act: “el autor [de una obra protegida por derechos de autor] es … la persona que traduce una idea en una expresión fija y tangible con derecho a la protección de los derechos de autor” [Cmty. for Creative Non-Violence v. Reid (“CCNV”), 490 U.S. 730, 737 (1989)].

El mero hecho de encargar una obra y dar sugerencias sobre ésta no convierte al comitente en autor, sostuvo el Tribunal Supremo en este caso, referido a una obra plástica. Hasta la fecha, ningún tribunal norteamericano ha reconocido derechos de autor sobre material creado por no humanos.

Haciendo referencia a la célebre sentencia del Tribunal Supremo dictada en el caso Feist Publications, Inc. v. Rural Telephone Service Co [499 U.S. 340, 344-45 (1991)], la USCO señala que la doctrina del sweat of the brow, que permitía proteger por el copyright el mero esfuerzo o el tiempo, quedó desde entonces derogada, dejando claro que únicamente la originalidad es protegible, y que las ideas o datos narrados o contenidos en la obra en sí carecen de protección.

Seguidamente, la USCO hace referencia a un caso célebre sobre la configuración del concepto de autoría de las obras fotográficas: el litigio Burrow-Giles Lithographic Co. v. Sarony (111 U.S. 53, 55–57 (1884), en el que el Tribunal Supremo concluyó que el uso de máquinas no conduce a tener que denegar la protección por el copyright, pues la obra resultante sí quedará protegida cuando contenga suficientes elementos expresivos de autoría humana, como son, en el caso de la fotografía, la disposición del objeto captado, la selección y disposición de vestuario y accesorios y la evocación de la expresión deseada.

La USCO trae a colación las discusiones -contenidas en varios pronunciamientos resueltos por los tribunales de diversos circuitos, que no llegaron a ascender al Supreme Court- sobre la coautoría para llamar la atención sobre el hecho de que para ser considerado coautor de una obra la persona ha tenido que realizar una contribución que per se sea susceptible de protección a la hora de expresar las ideas, no el mero acto de proporcionar ideas.

Como cuestión separada del debate sobre la protección o no del output del sistema de IA, la USCO afirma que “los prompts, por sí mismos, si son suficientemente creativos, pueden quedar protegidos por el derecho de autor” (pp. 20-21). Sin embargo, el hecho de introducir prompts, a modo de ideas o indicaciones que no se pueden proteger, no convierte el resultado que proporcione la IA en una obra protegible. Se llama la atención sobre el dato de que muchos prompts se introducen en el sistema de IA en un medio -por ejemplo, texto- distinto del medio en el que el sistema de IA genera el output -por ejemplo, imagen, video o audio-.

La USCO concluye que, dada la tecnología generalmente disponible en la actualidad, las indicaciones por sí solas no proporcionan suficiente control humano para convertir a los usuarios de un sistema de IA en los autores del resultado. En efecto, las indicaciones que se contienen en los prompts funcionan esencialmente como instrucciones que transmiten ideas no protegibles, pero no permiten al usuario controlar cómo el sistema de IA procesa dichas ideas para generar el resultado. Además, la selección por el usuario de un concreto output o resultado generado por la IA no es per se una decisión creativa, es decir, una decisión original de autoría humana que deba protegerse.

Para realizar estas afirmaciones, la USCO acude al debate sobre la coautoría. Los litigios que tienen que ver con esta cuestión se resuelven analizando la cantidad de control que es necesaria para reclamar la autoría. Pues bien, la provisión de instrucciones detalladas, sin influencia sobre cómo se ejecutan esas instrucciones, es insuficiente.

Tras ello, la USCO hace una importante advertencia: ingresar prompts en un sistema de IA tiene importantes diferencias con el acto de aportar instrucciones a un “artista” encargado de crear una obra. En una colaboración entre personas, según cuál sea la naturaleza de las contribuciones de cada parte, el “artista” puede ser el único autor o, por el contrario, el resultado puede ser una obra en coautoría. En la actualidad, las indicaciones dadas por los usuarios mediante prompts no llegan a determinar adecuadamente los elementos expresivos producidos ni permiten controlar cómo el sistema los traduce en un resultado.

Las indicaciones solamente reflejan la concepción mental o las ideas del usuario, pero, con la tecnología existente actualmente, el usuario no controla la forma en la que la IA expresa esa idea. En este sentido, el hecho de que el uso de dos prompts idénticos pueda dar lugar a que un mismo sistema de IA genere dos outputs diferentes, así como la propia existencia de brechas entre las indicaciones y los outputs resultantes -quedando algunas instrucciones sin reflejar y completando el sistema de IA los espacios vacíos- demuestran que el usuario carece de control sobre la conversión de sus ideas en una expresión fija, y es el sistema de IA quien determina los elementos expresivos en el resultado generado, al interpretar los prompts que introduce el usuario como forma de ejecución de la idea del usuario.

A modo de ejemplo, la USCO utiliza al pintor Jackson Pollock, al que uno de los comentaristas de la iniciativa trajo a colación en su aportación. A diferencia del proceso de generación del output de un sistema de IA, el proceso creativo de Pollock tiene a este pintor como principal responsable de la ejecución de la idea y la determinación de los elementos expresivos en la obra resultante.

El proceso de creación de Pollock no terminaba con su visión o idea de una obra, sino que era él el que controlaba la elección de colores, el número de capas, la profundidad de la textura, la colocación de cada elemento añadido a la composición general y era él quien, con sus propios movimientos corporales, controlaba asimismo la ejecución de cada una de estas decisiones.

Seguidamente, la USCO extiende esta argumentación al proceso de creación de obras fotográficas sobre la naturaleza: el copyright se otorga sobre decisiones humanas originales, tales como el ángulo y la ubicación de la cámara, la velocidad de disparo y sobre decisiones humanas originales de posproducción de la fotografía, sin que la protección por el derecho de autor quede excluida por algunos elementos de aleatoriedad, porque lo que se debe analizar es el grado de control humano, y no el carácter predecible o no del resultado del proceso.

El hecho de que la generación de algunos outputs se realice tras un importante esfuerzo y tiempo del usuario, por haber insertado un número elevado de prompts en la IA generativa utilizada, es irrelevante a estos efectos, señala la USCO, dado que, por un lado, el número de prompts empleados no hace que el usuario llegue a ostentar el control del proceso creativo y, por otro lado, el sweat of the brow no es ya el parámetro a analizar a la hora de otorgar el copyright, sino la originalidad de la obra creada por un ser humano.

La USCO se inclina, por tanto, por la postura que había sido defendida en sus propias aportaciones a la iniciativa de la USCO por algunos de los académicos que son referentes a nivel mundial en esta materia: los profesores Jane Ginsburg y Luke Ali Budiardjo, por un lado, y Daniel Gervais, por otro.

En relación con la denominada teoría de la adopción -que implica que un usuario que acepta como bueno un output generado por un sistema de IA está ejerciendo un juicio creativo y, por ello, ha de ser tenido por autor del output- Ginsburg y Budiardjo habían afirmado “si la adopción posterior a la ejecución sustituyera cualquier participación del autor, incluso indirecta o involuntaria, al dar forma física a una obra, entonces, además de [nombrar] al autor ‘equivocado’, la ley de derechos de autor otorgaría efectivamente a los adoptantes derechos sobre las ideas”.

Por su parte, la oposición de Gervais a la teoría de la adopción se refleja de manera muy visual con la siguiente analogía ofrecida por este autor: “Si entro en una galería o tienda que se especializa en pinturas o cuadros de la sabana africana porque estoy buscando una idea específica (por ejemplo, un elefante al atardecer, con árboles a lo lejos), puedo encontrar una pintura o cuadro que se ajuste a mi idea”, pero “eso de ninguna manera me convierte en autor”. La USCO no acoge la postura defendida por otros reconocidos académicos.

Entre ellos, los profesores Pamela Samuelson, Christopher Jon Sprigman y Matthew Sag, que defendieron que el requisito de la autoría humana sí se cumple por aquella persona que instruya a una IA generativa con suficiente detalle, de modo que el resultado del modelo refleje la concepción original de la obra de esa persona.

En otro orden de cosas, la USCO analiza las implicaciones jurídicas de la inserción por el propio usuario de una obra de originalidad propia como input en un sistema de IA para generar por parte de dicho sistema un output en el que se reproduzcan partes de dicho input. A modo de ejemplo, una fotografía hecha por el usuario que es subida por éste al sistema de IA para que la IA modifique colores y proporciones, o la obra literaria escrita por un usuario en primera persona que es subida al sistema de IA para que éste la redacte en tercera persona.

Este tipo de inputs nada tiene que ver con el mero uso de prompts por el usuario para comunicar ideas que quiera ver reflejadas en el resultado generado por la máquina. Ello porque si el output generado por el sistema de IA reproduce parte del input creado por el usuario, éste habrá tenido una contribución a ese resultado mayor que la mera concepción intelectual.

La USCO pone como ejemplo “Rose Enigma”, una obra cuyo registro se solicitó por Kris Kashtanova. El registro se concedió en 2023, con la siguiente anotación: “El registro se limita a la autoría pictórica humana inalterada que es claramente perceptible en el depósito y separable de la expresión no humana que está excluida de la reivindicación”.

En efecto, en su solicitud de registro, la autora excluyó expresamente “cualquier expresión no humana” que apareciera en la obra final -en este caso, la representación tridimensional realista de la nariz, los labios y los capullos de rosa, así como la iluminación y las sombras del fondo, pues habían sido generados por la IA, a diferencia del resto de elementos expresivos de la obra, que sí figuraban en el dibujo de su autoría que utilizó como input en el sistema de IA y que se perciben claramente en el resultado final-.

En su informe, la USCO se reafirma en esta conclusión: cuando un ser humano introduce su propia obra protegida por derechos de autor como input en un sistema de IA y dicha obra es perceptible en el resultado, será el autor de al menos esa parte del resultado. Y añade la siguiente idea: además, el derecho de autor de ese usuario también podrá cubrir la selección, coordinación y disposición originales de la suma del material creado por él, como ser humano, y de los resultados generados por IA, aunque no se extienda dicho derecho de autor per se sobre cada elemento individual generado por la IA.

En el siguiente apartado, la USCO reflexiona sobre el hecho de que un ser humano puede modificar el resultado generado originariamente por un sistema de IA hasta tal punto que las modificaciones introducidas cumplan con el estándar de protección del derecho de autor. La USCO explica cuál viene siendo su respuesta a un caso recurrente: la solicitud de registro de la combinación de texto creado por autor humano con imágenes generadas por un sistema de IA.

En este caso, si se cumple el requisito de la originalidad -por ser fruto de una serie de decisiones humanas creativas- de la selección y disposición en cada página de imágenes generadas por el sistema de IA con el texto creado por el autor humano, entonces esa suma o combinación final puede quedar protegida como compilación (base de datos) por el derecho de autor, aun cuando el concreto elemento generado por la IA no goce de protección -salvo que haya sido modificado por un ser humano posteriormente, en cuyo caso dichas modificaciones, si son originales, sí quedarían tuteladas por el derecho de autor-. La USCO pone como ejemplo su resolución de 21 de febrero de 2023 en el caso Zayra of the Dawn.

La USCO pone como ejemplos algunas funcionalidades o herramientas de sistemas de IA como Midjourney o ChatGPT que permiten al usuario ejercitar cierto control sobre la selección y disposición de los contenidos en el resultado final. A diferencia de la función de insertar prompts, presente de manera generalizada en los sistemas de IA, estas concretas herramientas o funcionalidades solamente están disponibles en algunos sistemas y permiten al usuario controlar efectivamente la selección y la colocación de elementos creativos individuales.

Por ello, la USCO sostiene que el análisis habrá de realizarse caso por caso y cuando se llegue a la conclusión de que las modificaciones introducidas por el ser humano en el resultado inicial del sistema de IA sean originales, entonces dicho resultado será susceptible de protección por derechos de autor.

En este punto, sería ciertamente aconsejable que la USCO clarificase que lo relevante en sí es el dato de que el usuario sea quien toma decisiones creativas a la hora de elegir las modificaciones a introducir y de controlar la expresión concreta de dichas modificaciones, y no así el dato de su la herramienta empleada para introducir esas modificaciones es, asimismo, un sistema de IA o no. En efecto, los ejemplos traídos a colación en este epígrafe del informe restan claridad y diferenciación con respecto a la problemática discutida en los epígrafes previos.

Tras ello, la USCO advierte que la inclusión de contenidos generados por sistemas de IA en una obra más grande creada por humanos no afecta a la protección por derechos de autor de la obra en su conjunto, aun cuando el concreto elemento generado por la IA quede excluido de dicha tutela.

En el siguiente epígrafe del informe, dedicado al estudio de los pasos dados por otros países, la USCO concluye que la mayoría de países que han analizado la posibilidad de proteger por derecho de autor obras que contengan material creado por sistemas de IA aplican el principio humanista como base del análisis.

La Unión Europea es mencionada dentro de este grupo, junto con Corea del Sur, Japón y China. Asimismo, advierte sobre la consulta pública que Reino Unido ha iniciado en diciembre de 2024 sobre esta materia, con vistas a modificar o mantener la regulación de la protección de las obras generadas por ordenador actualmente vigente. Regulación que rige, de manera similar, en otros países que conformaron o conforman la Commonwealth, como Hong Kong, India y Nueva Zelanda.

En el apartado sobre lege ferenda, la USCO señala que, dado que el copyright exige la autoría humana, la legislación sobre derechos de autor no puede ser la base de la protección de creaciones que no satisfacen ese requisito. Si bien el Congreso estadounidense podría considerar establecer derechos sui generis para los resultados generados por la IA, la USCO no considera convincentes los argumentos de política a favor de una protección adicional.

Los desarrolladores de sistemas de IA ya disfrutan actualmente de incentivos -por ejemplo, por la vía de las patentes o, incluso, del derecho de autor sobre el software, en su caso, así como del Derecho de la competencia- y crear una nueva forma de tutela podría suponer un efecto adverso para los autores humanos, una suerte de desincentivo para estos y para la sociedad en general, si es que ello se traduce en una reducción del número de obras creadas por autores humanos.

Por todo ello, la USCO sostiene que los principios y doctrinas jurídicas existentes son suficientes para dar respuesta a los distintos problemas analizados en este informe. De acuerdo con la USCO, la legislación estadounidense sobre derechos de autor ha demostrado una importante capacidad de adaptación a las nuevas tecnologías y puede permitir la determinación caso por caso de si los resultados generados por sistemas de IA reflejan una contribución humana suficiente para justificar la protección por derechos de autor, en aquellos casos en los que un ser humano haya podido determinar los elementos expresivos que contienen los outputs del sistema de IA.

A modo de resumen, la USCO identifica las siguientes conclusiones de su Copyrightability Report:

  • Las cuestiones que plantea la relación entre la propiedad intelectual y la IA se pueden resolver con base en el Derecho existente, sin necesidad de una modificación legislativa.
  • El uso de herramientas de IA para asistir a la creatividad humana, sin sustituirla, no afecta a la posible tutela del resultado final por el derecho de autor.
  • El derecho de autor protege la expresión original de una obra creada por un ser humano, incluso si esa obra incluye material generado por la IA.
  • El derecho de autor no se puede extender a material generado íntegramente por la IA o en el que no haya existido un control humano suficiente sobre la expresión. En estos casos no debe regularse ni un derecho de autor adicional, ni un derecho sui generis.
  • El análisis sobre si las contribuciones humanas al output generado por sistemas de IA son suficientes para hacer surgir el derecho de autor debe realizarse caso por caso.
  • Teniendo en cuenta el funcionamiento actual de la IA, los prompts no aportan suficiente control humano sobre la expresión.
  • Los autores humanos gozarán de la protección por el derecho de autor sobre las obras de su autoría insertadas en el sistema de IA como input que puedan percibirse dentro de los outputs generados por la IA, así como sobre la selección, coordinación o disposición originales de los outputs o en la creación de modificaciones originales de esos outputs.

En el propio texto de su informe, la USCO se compromete a prestar asistencia jurídica al público en materia de registro de resultados generados por la IA y a actualizar el Compendium of U.S. Copyright Office Practices, cuya tercera y última edición data de 2021.

Además, anuncia que próximamente publicará una tercera parte de su informe, dedicada al análisis de las implicaciones para la propiedad intelectual del entrenamiento de sistemas de IA.

Desde el CIPI estaremos muy atentos en los próximos meses al futuro informe anunciado, en el que seguramente se afrontará la posibilidad de subsumir o no actos de minería necesarios para el entrenamiento de sistemas de IA en la tradicional defensa estadounidense por fair use.

 

DEEPFAKES: EL NUEVO RETO LEGAL Y ÉTICO EN LA ERA DE LA DESINFORMACIÓN.

(La autora es exalumna de la XVIII Edición del Máster en Propiedad Intelectual, Industrial y NN.TT.)

Los deepfakes son una de las mayores amenazas que enfrenta la sociedad contemporánea debido a su capacidad para crear contenidos visuales y sonoros que parecen absolutamente reales, pero que, en realidad, son completamente falsos. Específicamente, según INCIBE (Instituto Nacional de Ciberseguridad), los deepfakes son vídeos manipulados para hacer creer a los usuarios que ven a una determinada persona, tanto si es anónima como si es un personaje público, realizando declaraciones o acciones que nunca ocurrieron.

Esta tecnología utiliza algoritmos de inteligencia artificial, específicamente el aprendizaje profundo o deep learning, para alterar o crear imágenes, audios y vídeos que manipulan la apariencia o las palabras de personas, a menudo sin que ellas lo sepan o lo consientan. De hecho, la palabra deepfake es un término combinado de “deep learning” y “fake”.

Esta tecnología emergente vio su origen en el mundo de la investigación con aplicaciones prácticas en el mundo del cine como una alternativa a los procesos de construcciones digitales, que tienden a generar altos costos. Quizá el ejemplo más famoso de la implementación de esta tecnología en el cine es la última película de la saga Star Wars, en la cual la actriz Carrie Fisher, conocida por su personaje de la princesa Leia, había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para las escenas que faltaba grabar.

No obstante, el potencial de los deepfakes para ser utilizados con fines maliciosos plantea serias preocupaciones éticas, legales y políticas, particularmente en el contexto de la desinformación y la manipulación pública. En un mundo donde las redes sociales juegan un papel clave en la propagación de información, los deepfakes han emergido como una herramienta poderosa de desinformación, capaz de influir en la percepción pública de una manera antes nunca vista. En este sentido, la preocupación por el uso indebido de esta tecnología se ha incrementado en diversas esferas, especialmente en el ámbito electoral.

Un claro ejemplo de esta amenaza fue el uso de deepfakes durante las elecciones presidenciales en Estados Unidos, donde se temió que los contenidos manipulados pudieran influir en los resultados o alterar la percepción pública de los candidatos. Según datos de Pew Research Center (1), un 57% de los estadounidenses se sienten extremadamente preocupados por el uso de inteligencia artificial para manipular la opinión pública, especialmente durante los comicios.

Este fenómeno ha trascendido las fronteras de los Estados Unidos y se ha convertido en un reto global. Según el AI Index 2024 (2), un informe elaborado por la Universidad de Stanford, los deepfakes ya están afectando a los procesos electorales en distintas partes del mundo, incrementando el riesgo de manipulación de la opinión pública y el debilitamiento de la democracia.

La facilidad con la que los deepfakes pueden ser creados y distribuidos es un factor clave que amplifica su peligrosidad. Cualquier persona con acceso a herramientas y programas de inteligencia artificial puede generar un vídeo manipulando la imagen de un individuo o una situación con una calidad sorprendente. Estos vídeos no solo son difíciles de detectar como falsos, sino que su viralización en plataformas de internet hace aún más complicado controlarlos.

Un caso concreto de cómo pueden alterar la percepción pública y generar confusión fue el vídeo, en 2022, en el que el presidente de Ucrania, Volodymyr Zelensky, aparecía supuestamente anunciando su rendición a Rusia en el contexto de la guerra (3). Este vídeo manipulado, aunque rápidamente identificado como una falsificación, generó una gran alarma entre la población, subrayando los riesgos que los deepfakes suponen en situaciones de alta tensión política y bélica.

Este tipo de manipulaciones masivas ha contribuido a la creación de lo que algunos expertos denominan “infopocalipsis”: una crisis de confianza en la información. La desinformación es cada vez más difícil de distinguir de la verdad, lo que provoca un clima de incertidumbre en la sociedad. La propagación de deepfakes y otros tipos de contenido manipulado ha hecho que las personas sean más escépticas ante las noticias, lo que plantea un desafío sin precedentes para los periodistas y las plataformas de redes sociales.

En este sentido, los medios de comunicación y los periodistas tienen la responsabilidad de verificar y autenticar la información, utilizando herramientas tecnológicas para detectar deepfakes y garantizar que la información que se difunde sea fidedigna. Sin embargo, la velocidad con la que los contenidos circulan en internet y las técnicas de manipulación utilizadas hacen que sea extremadamente difícil para los medios frenar la desinformación en tiempo real.

Debido a la rapidez del desarrollo de esta tecnología, se ha tenido que estudiar qué leyes regulan de manera más analógica estos problemas, esperando a que se aprueben nuevas normas que ayuden a ajustar estas recientes amenazas.

En cuanto a la normativa española, los deepfakes se enmarcan dentro de un contexto legal que protege varios derechos fundamentales. La Constitución Española establece, en su artículo 18, el derecho al honor, la intimidad personal y familiar, y la propia imagen, derechos específicamente protegidos en Ley Orgánica 1/1982, lo que implica que la creación y distribución de contenido manipulado que afecte a estas esferas podría estar vulnerando estos derechos.

En este sentido, el Código Penal español también prevé diversos delitos que podrían aplicarse en situaciones de deepfakes. Los delitos contra el honor, por ejemplo, podrían ser aplicados en casos de calumnias y difamaciones derivadas de vídeos manipulados que dañen la reputación de una persona.

Además, el artículo 197 del Código Penal, relativo a los delitos contra la intimidad, protege a las personas de la difusión no autorizada de imágenes o audios que invadan su privacidad, un ámbito en el que los deepfakes pueden causar un daño significativo. A su vez, la usurpación de funciones públicas, regulada en los artículos 402 y 403 del Código Penal, podría aplicarse si se manipulan vídeos o audios de figuras políticas para suplantar su identidad y difundir información falsa con fines malintencionados.

Por otro lado, la Ley de Propiedad Intelectual y el Reglamento General de Protección de Datos (RGPD) también ofrecen una protección adicional frente a los deepfakes. En primer lugar, la creación y distribución de contenido que utilice imágenes, vídeos o sonidos protegidos por derechos de autor puede constituir una infracción de la propiedad intelectual, si no se cuenta con la autorización correspondiente.

Además, la manipulación de la imagen o voz de una persona, que puede ser considerada un dato personal de acuerdo con el artículo 4.1 del RGPD, exige con base en esta normativa, junto con la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales (LOPDPGDD), el consentimiento explícito de la persona afectada para el uso de estos datos, especialmente si se trata de datos biométricos (4) como el rostro o la voz (artículo 9 RGPD), los cuales son utilizados en los deepfakes para crear representaciones falsas.

El incumplimiento de estas disposiciones puede ocasionar multas administrativas de hasta 20 millones de euros o del 4 % del volumen de negocio anual global en el caso de tratarse de una empresa (artículo 83.5 RGPD). Además, el artículo 82 del RGPD permite a las víctimas reclamar una indemnización por los daños y perjuicios sufridos por el incumplimiento del Reglamento, incluyendo daños morales.

Sumado a esto, las plataformas digitales, como redes sociales y proveedores de servicios de alojamiento de datos, tienen la obligación de colaborar en la lucha contra la difusión de deepfakes implementando sistemas de detección proactiva y ofreciendo mecanismos para eliminar contenido manipulado. En España, estas plataformas están reguladas por el Reglamento (UE) 2022/2065 (Reglamento de Servicios Digitales o DSA), que establece requisitos para los prestadores de servicios de intermediación.

Conforme al artículo 35.1.k) de la DSA, las plataformas deberán garantizar que el contenido generado o manipulado que simule personas, objetos, lugares o eventos existentes y pueda inducir a error se distinga claramente en sus interfaces. Además, deberán ofrecer una herramienta sencilla para que los usuarios puedan señalar dicha información. No obedecer a estas obligaciones puede resultar en sanciones de hasta el 6 % del volumen de negocios anual en todo el mundo del prestador de servicios en el ejercicio fiscal anterior, en casos graves (artículo 52.3 DSA).

El uso de inteligencia artificial para la creación de deepfakes ha impulsado el desarrollo de diversas herramientas tecnológicas diseñadas para detectar y mitigar los riesgos asociados a estos contenidos manipulados. Además, también han surgido iniciativas legislativas, entre las que se encuentra el Código de Prácticas sobre la Desinformación (2022) (5), aprobado por la Comisión Europea, que establece compromisos para que las plataformas identifiquen y actúen contra contenidos manipulativos generados por sistemas de IA, como los deepfakes.

Este código establece la obligación para las plataformas de desarrollar y aplicar políticas de transparencia y detección proactiva de contenidos manipulados, tal como se describe en el “Compromiso nº 15” del mismo. Además, las plataformas deben asegurarse de que los algoritmos que utilizan para detectar, moderar y sancionar contenidos sean confiables, respeten los derechos de los usuarios y no constituyan prácticas manipulativas ilegales.

Por otra parte, también a nivel europeo y recientemente, el Reglamento (UE) 2024/1689 sobre Inteligencia Artificial, adoptado en junio de 2024, establece un marco normativo integral para la regulación del uso y desarrollo de sistemas de inteligencia artificial en la Unión Europea. En este sentido, viene a introducir medidas específicas para la regulación de los deepfakes, obligando a los responsables del uso de IA a etiquetar claramente los contenidos manipulados, indicándoles su origen artificial.

Según el considerando 134 y el artículo 50 del Reglamento, los deepfakes deben ser identificados como contenido generado o manipulado artificialmente, salvo en los casos en que la ley permita excepciones (por ejemplo, en investigaciones penales o en contextos artísticos). La obligación de transparencia es clara, pero con excepciones que buscan proteger el uso legítimo de tecnologías en ámbitos creativos o culturales.

Con todo, a pesar de la existencia de estas pinceladas y analogías en la normativa, todavía existen vacíos legales que dificultan el abordaje efectivo de los deepfakes en España y la UE, mientras que, en otros países, como Estados Unidos o China, ya se han presentado proyectos de ley para prohibir su creación y distribución.

En EEUU, la “No Artificial Intelligence Fake Replicas And Unauthorized Duplications” (“No AI FRAUD Act”) (6) y el “DEEPFAKES Accountability Act” (7) buscan proteger la seguridad nacional contra las amenazas planteadas por la tecnología deepfake y proporcionar recursos legales a las víctimas de deepfakes perjudiciales, mientras que, en China, se publicaron, en enero de 2023, las Disposiciones sobre la Administración de la Síntesis Profunda de los Servicios de Información basados en Internet (las Disposiciones de Síntesis Profunda), que regula la aplicación de deepfakes para prestar servicios de información en Internet (8).

Concretamente, exige la identificación clara de los contenidos generados artificialmente y prohíbe su uso para actividades ilegales o difusión de información falsa, además de obligar a los proveedores a habilitar canales accesibles para quejas y gestionar rápidamente las reclamaciones. Asimismo, requiere obtener el consentimiento explícito de las personas cuando se utilicen o editen sus datos biométricos, como rostros o voces.

Es esencial desarrollar una normativa específica que, al margen de sancionar el uso ilícito de los deepfakes, fomente la prevención a través de mecanismos de detección y campañas de concienciación pública. Asimismo, es crucial que las plataformas digitales asuman una responsabilidad más activa en la identificación y eliminación de contenidos manipulados que no cumplan las exigencias legales, ya que, en un entorno donde estos contenidos pueden vulnerar derechos fundamentales y dar la apariencia de veracidad a noticias inciertas, es imprescindible concienciar sobre la necesidad de verificar la información antes de darla por válida.

Además, la alfabetización digital debe incluir la capacitación en el reconocimiento de herramientas de manipulación y en la comprensión de las implicaciones legales derivadas de su uso indebido. De este modo, no solo se prevendría la difusión de contenidos falsos, sino que se reforzaría una cultura de responsabilidad y respeto a los derechos fundamentales, imprescindible para garantizar el buen uso de estas tecnologías en un marco de legalidad y ética.

 

Enlaces:

(1) https://www.pewresearch.org/short-reads/2024/09/19/concern-over-the-impact-of-ai-on-2024-presidential-campaign/

(2) https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf

(3) https://www.elconfidencial.com/tecnologia/novaceno/2022-03-17/hackers-rusos-difunden-un-video-falso-de-zelensky-ordenando-la-rendicion_3393225/

(4) Art.3.14) «datos biométricos»: datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física que permitan o confirmen la identificación única de dicha persona, como imágenes faciales o datos dactiloscópicos;

(5) https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation

(6) https://www.congress.gov/bill/118th-congress/house-bill/6943/text/ih

(7) https://www.govinfo.gov/content/pkg/BILLS-118hr5586ih/pdf/BILLS-118hr5586ih.pdf

(8) https://www.chinalawtranslate.com/deep-synthesis/

 

LA CREACIÓN MUSICAL POR INTELIGENCIA ARTIFICIAL: REFLEXIONES ACERCA DE SUS IMPLICACIONES LEGALES Y ÉTICAS, A LA LUZ DE ALGUNOS CASOS RECIENTES.

(El autor es estudiante de la XVIII edición del Máster en Propiedad Intelectual, Industrial y Nuevas Tecnologías UAM)

La creación musical por inteligencia artificial (IA) ha emergido como un fenómeno fascinante en el ámbito de la música contemporánea, originando un amplio debate en cuanto a sus implicaciones legales, éticas y culturales. A medida que la tecnología avanza, las posibilidades de generar música mediante algoritmos y programas de IA se vuelven cada vez más accesibles y sofisticadas, desafiando las nociones tradicionales de autoría, originalidad y creatividad en el proceso musical.

En el contexto europeo, la legislación de la Unión Europea (UE) clásica o tradicional proporciona el marco legal para abordar las cuestiones relacionadas con la propiedad intelectual en el mundo digital. En particular, la Directiva 2001/29/CE, sobre la armonización de determinados aspectos de los derechos de autor y derechos afines en la sociedad de la información, conocida como la "Directiva InfoSoc", establece los principios fundamentales de protección de los derechos de autor en el ámbito digital.

A estos efectos, entre otros extremos, reconoce –en beneficio de los autores y titulares de derechos conexos– los derechos exclusivos de reproducción, comunicación al público (incluida la puesta a disposición interactiva) y distribución (1).  Sin embargo, dado que esta directiva fue adoptada hace más de 20 años (puntualmente en el 2001) lógicamente no aborda temas relacionados a la IA.

Por su parte la Directiva 2019/790 sobre los Derechos de Autor en el Mercado Único Digital, que fue adoptada con el objetivo de modernizar las normas de derecho de autor en la Unión Europea para adaptarlas a la era digital y abordar los desafíos planteados por las nuevas tecnologías, tampoco resuelve la cuestión tan controversial de la música creada por estos sistemas autónomos sin intervención humana. 

A nivel nacional, la Ley de Propiedad Intelectual española (LPI) establece los derechos y obligaciones relacionados con la creación y explotación de obras en general, incluidas las musicales. Su artículo 2, establece que la propiedad intelectual, está integrada no sólo por derechos de carácter “patrimonial”, sino también por derechos de carácter “personal”.

Por su parte, el artículo 5 menciona que se considera autor a la “persona natural” que crea alguna obra.  Por lo tanto, esta legislación se basa en la premisa de que la creación artística es obra de un ser humano, lo que plantea interrogantes sobre cómo aplicar estas disposiciones legales a la música generada por algoritmos de IA. ¿Puede considerarse que una obra musical generada por IA es original y protegida por derechos de autor bajo la ley actual? ¿Quién debería ser considerado autor de dicha obra: el programador que diseñó el algoritmo, la persona que entrenó el algoritmo, el propietario de la IA o el propio sistema de IA?

La jurisprudencia existente sobre este tema es limitada, pero hay casos que han sentado precedentes importantes en el ámbito de la propiedad intelectual y la creatividad digital. Por citar algunos podríamos mencionar al caso, Burrow-Giles Lithographic Co. v. Sarony, en la que se habla del autor como persona humana creadora, origen de la obra, y del derecho de autor como un derecho exclusivo del hombre sobre la producción de su intelecto o genialidad. En el pleito Mazer v. Stein, el Tribunal Supremo habla de la originalidad de una obra como la expresión tangible de sus ideas por un ser humano.

En el asunto Goldstein v. California, el Tribunal Supremo norteamericano, de nuevo citando el caso Burrow-Giles, concluye que el término autor en el sentido constitucional, es la persona de la que emana la obra, el origen mismo de la obra (2). Asimismo, pero dentro del ámbito de las invenciones, es decir de las patentes, en el caso “DABUS", el solicitante Steven Thaler consignaba en la documentación presentada que el sistema de IA “DABUS”, sea considerado el inventor de una serie de inventos, incluyendo un dispositivo de iluminación y un contenedor de alimentos, justificando el interés legítimo de Thaler como propietario de la máquina en la que se ejecuta DABUS.

Tanto la Oficina de Patentes y Marcas de Estados Unidos como la Oficina Europea de Patentes rechazaron estas solicitudes, argumentando que solo los seres humanos pueden ser reconocidos como inventores bajo la legislación vigente (3). Aunque este caso se refiere a patentes en lugar de derechos de autor, ilustra la complejidad de atribuir autoría y derechos de propiedad en el contexto de la creación por IA.

Desde una perspectiva ética, nacen desafíos significativos en relación con la autonomía, la responsabilidad y la originalidad en la creación musical por IA. Como decíamos, surge la importante cuestión de determinar quién debería ser considerado autor de una obra musical generada por algoritmos de IA, en particular, si esta condición ha de atribuirse al programador que diseñó el algoritmo, al propietario de la IA, o al propio sistema de IA.

En este sentido, la existencia de un reciente y actual caso, conocido como Bad Bunny v. Flow GPT, ha generado amplio debate en el ámbito de la música y la inteligencia artificial (4). Esta batalla legal se desencadenó a finales del 2023, a raíz del lanzamiento y rápida aceptación por los internautas de la canción "NostalgIA" por parte del productor chileno MauryCeo (5).

Dicho lanzamiento fue efectuado a través de su artista virtual conocido como “Flow GPT”, utilizando voces generadas por inteligencia artificial de Bad Bunny, Daddy Yankee y Justin Bieber, y se volvió viral en redes sociales como TikTok, desencadenando un intenso debate sobre el derecho de autor. A pesar de acumular millones de reproducciones, recibir el apoyo de diversas estrellas del espectáculo, y de que el productor afirmó haber cedido los derechos a Bad Bunny, para que pudiera interpretarla en vivo, el puertorriqueño se negó, reaccionó negativamente y solicitó que la canción fuera retirada de las plataformas digitales.

Por lo tanto, aun a la fecha y sin leyes claras y consolidadas que aborden la materia, la situación legal es confusa y genera incertidumbre sobre cómo abordar este nuevo fenómeno. Otros artistas, como Drake y The Weeknd, también han expresado su descontento con estas herramientas tecnológicas, mientras que algunos, como Grimes, han visto oportunidades en ellas lanzando su propio software con su voz, denominado Elf.Tech (6).

 

(7)

A pesar de las recientes novedades legislativas, es importante aclarar que la normativa europea, no termina de resolver esta cuestión. El pasado 13 de marzo, de 2024, el Parlamento Europeo aprobó, la propuesta de reglamento por la que se establecen normas armonizadas en materia de Inteligencia Artificial (la mal llamada “Ley de IA”), que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación, convirtiéndose así en el primer marco jurídico integral sobre IA a nivel mundial (8).

Esta novel legislación incluye entre sus objetivos principales, garantizar la seguridad y los derechos de los ciudadanos europeos, así como fomentar la inversión y la innovación en el ámbito de la IA en Europa. La ley, basada en criterios de riesgo, establece requisitos y obligaciones para los sistemas de IA de alto riesgo, mientras prohíbe aquellos con riesgos considerados inaceptables, como la manipulación cognitiva o el rastreo indiscriminado de imágenes faciales. Además, se enfatiza en la protección de los derechos fundamentales mediante la evaluación del impacto de los sistemas de IA en estos derechos y la obligación de transparencia en los modelos funcionales (9).

Como complemento, se ha creado la Oficina de la IA en la Comisión Europea para supervisar el cumplimiento de la regulación y fomentar las normas y prácticas de ensayo (10). Siendo estos nuevos instrumentos legales (Ley IA y Oficina de IA) tan recientes, resta estar atentos al impacto e injerencia que puedan tener en los próximos meses, en lo relativo a la creación artística asistida por algoritmos. 

Además de los desafíos legales y éticos, la creación musical por inteligencia artificial también formula interrogantes en cuanto a la calidad artística y la recepción por parte del público. Aunque la IA puede generar música de manera eficiente y en grandes cantidades, algunos críticos argumentan que carece del contexto emocional y la profundidad creativa que a menudo caracterizan las obras musicales humanas.

Esto plantea preguntas sobre la autenticidad y la conexión emocional que los oyentes pueden experimentar con la música creada por IA, así como sobre el impacto en la industria musical y la comunidad creativa en su conjunto.

La creciente colaboración entre músicos y desarrolladores de IA está dando lugar a nuevas formas de experimentación creativa y de exploración de los límites del arte sonoro. Algunos artistas están adoptando activamente la IA como una herramienta complementaria en su proceso creativo, utilizando algoritmos para generar ideas musicales innovadoras o para expandir sus horizontes estilísticos.

Esta convergencia entre la creatividad humana y la capacidad computacional de la IA promete abrir nuevas vías de expresión artística y de descubrimiento musical, aunque también plantea preguntas sobre la autoría y la influencia en la identidad artística de los músicos, como se puntualizó anteriormente.

En respuesta a estos desafíos, es crucial que los legisladores y los profesionales del derecho sigan trabajando en colaboración con expertos en tecnología y ética para el continuo desarrollo de un marco legal y ético claro y equilibrado, que promueva la innovación y proteja los derechos de todas las partes involucradas. Esto podría incluir la creación de nuevas categorías de derechos de autor para obras generadas por IA, la implementación de sistemas de atribución de autoría digitalmente verificables y la adopción de estándares éticos y de transparencia en el desarrollo y uso de la IA en el ámbito creativo.

En conclusión, la creación musical por inteligencia artificial plantea desafíos complejos y multifacéticos que requieren una respuesta legal y ética cuidadosamente considerada. Es fundamental establecer normativas claras que definan la atribución de derechos de autor y responsabilidades legales en la creación musical por IA, así como mecanismos efectivos para resolver disputas y proteger los intereses de todas las partes involucradas.

A medida que la tecnología continúa avanzando, es fundamental que los sistemas jurídicos y éticos evolucionen para abordar estos desafíos de manera efectiva y garantizar un equilibrio adecuado entre la innovación tecnológica, de un lado, y la protección de los derechos de autor y la creatividad humana, de otro.

 

  1. artículos 2, 3 y 4, respectivamente, de la Directiva 2001/29
  2. https://blog.cipi.es/blog2-intelectual/item/224-la-historia-de-a-recent-entrance-to-paradise-dabus-y-otros-amigos-unas-reflexiones-sobre-como-se-han-venido-tratando-las-solicitudes-de-steven-thaler-de-registro-de-obras-y-de-invenciones-creadas-por-algoritmos
  3. https://www.wipo.int/wipo_magazine/es/2021/03/article_0006.html
  4. https://es.wikipedia.org/wiki/NostalgIA_(canci%C3%B3n_de_FlowGPT)
  5. https://www.youtube.com/watch?v=yRswYP93184
  6. https://es.wikipedia.org/wiki/Elf._tech
  7. https://spoiler.bolavip.com/musica/letra-de-nostalgia-la-cancion-de-bad-bunny-justin-bieber-y-daddy-yankee-creada-con-ia-20231107-SPO-48046.html // https://www.tvnotas.com.mx/espectaculos-mexico/inteligencia-artificial-vs-bad-bunny-flowgpt-le-responde-a-bad-bunny-te-noto-algo-enojado 
  8. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:52021PC0206 
  9. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai 
  10. https://digital-strategy.ec.europa.eu/es/policies/ai-office#:~:text=La%20Oficina%20de%20IA%20se%20cre%C3%B3%20en%20el,garantizar%20que%20la%20IA%20sea%20segura%20y%20fiable.

 

COPYRIGHT OFFICE ESTADOUNIDENSE E INTELIGENCIA ARTIFICIAL (II): ANÁLISIS DEL CASO "SURYAST"

(La autora es Contratada Doctora de Derecho Civil de la UAM y miembro del equipo de dirección del CIPI)

Recientemente publicábamos una reseña de la “Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence” (1) (2). Como indicamos en esa entrada, la Copyright Office estadounidense ha optado en la Copyright Registration Guidance -en adelante, la Guía- por seguir un principio humanista en materia de propiedad intelectual, denegando el registro de toda obra en cuyo proceso creativo se hubiera empleado una herramienta de inteligencia artificial sin una intervención humana relevante, esto es, sin autoría humana. En la presente entrada estudiamos la respuesta dada por la Copyright Office en un caso reciente, de diciembre de 2023, posterior, por tanto, a la publicación de la Guía -que, recordemos, se produjo en marzo de 2023-. Ello con el objetivo de dar cuenta de la aplicación que esta institución ha hecho de la Guía en un caso real. Hablamos del asunto “SURYAST” (3).

El caso surge a raíz de la solicitud de registro de la imagen en dos dimensiones titulada “SURYAST”, creada con la herramienta de inteligencia artificial RAGHAV, en base a una fotografía tomada por el solicitante de registro, el Sr. Sahni, transformada al estilo del célebre cuadro de Van Gogh “La noche estrellada” (4). Téngase en cuenta que el objeto de la solicitud de registro no es la fotografía originaria, tomada por el Sr. Sahni, sino la adaptación de ésta al estilo de Van Gogh, para la que se empleó la herramienta de inteligencia artificial (5).

En su resolución de 11 de diciembre de 2023, el Review Board de la Copyright Office estadounidense confirma su decisión inicial sobre denegación de registro, al entender que no ha existido suficiente autoría humana. La relevancia de esta decisión se explica no sólo por la aplicación de la citada Guía de la Copyright Office de 2023, sino también por citar en ella la sentencia emitida por la District Court of Columbia de 18 de agosto de 2023 en el célebre caso Thaler v. Perlmutter (6), referido a una obra creada por la herramienta de inteligencia artificial manejada por el Sr. Steven Thaler (7). 

Los hechos del caso son los siguientes. El 1 de diciembre de 2021, Ankit Sahni presentó una solicitud de registro, enumerando en ella a dos autores: él mismo, como autor de “fotografía, obra de arte en dos dimensiones”, y la “Aplicación de pintura de inteligencia artificial RAGHAV”, como autora de “obra de arte en dos dimensiones”, a la vez que se identificaba a sí mismo como único reclamante de los derechos de autor. La Copyright Office le solicitó información adicional sobre el uso de la herramienta de inteligencia artificial RAGHAV en el proceso de creación de la obra.

Como respuesta, el Sr. Sahni explica que generó la obra tomando una fotografía original de su autoría, introduciendo esa fotografía en el software RAGHAV y, tras ello, introduciendo una reproducción del cuadro “La noche estrellada” de Vincent van Gogh en RAGHAV, como entrada de “estilo” a ser aplicado sobre su fotografía originaria. Dicha herramienta de inteligencia artificial permite al usuario elegir un valor variable que determina la cantidad o fuerza de la transferencia de estilo a la imagen inicial (8). Aspecto que completó el Sr. Sahni para que el software pudiera generar la imagen cuyo registro se solicita.

Esta herramienta de inteligencia artificial genera una imagen con el mismo “contenido” que una imagen base, pero con el “estilo” de una imagen elegida por el usuario -en este caso, el cuadro de Van Gogh-. El Sr. Sahni no afirma haber modificado dicha imagen después de su generación por la herramienta de inteligencia artificial. El Sr. Sahni explicó, además, que nombró a la herramienta RAGHAV como coautora en la solicitud de registro porque su “contribución es distinta, dispar e independiente” de su contribución a la obra.

Tras estudiar la descripción llevada a cabo por el solicitante, la Copyright Office denegó el registro por carecer “de la autoría humana necesaria para respaldar una reclamación de derechos de autor”, ya que la pretendida aportación humana creativa “no puede distinguirse ni separarse del trabajo final producido por la herramienta de inteligencia artificial”.

La Copyright Office parte de la conclusión a la que se había llegado recientemente en la citada sentencia del caso Thaler v. Perlmutter: la referencia a las “obras de autoría” que se contiene en el artículo 102(a) de la Copyright Act estadounidense requiere la creación humana de la obra como requisito fundamental para el nacimiento del derecho de autor. Se exige un autor “ser humano” que tenga “capacidad para realizar labores intelectuales, creativas o artísticas” (9).

Seguidamente, la Copyright Office hace referencia a la Guía de 2023, indicando que el quid de la cuestión está en analizar si “la 'obra' es básicamente de autoría humana, siendo la computadora [u otro dispositivo] simplemente un instrumento de asistencia, o si, por el contrario, los elementos de autoría de la obra (expresión literaria, artística o musical o elementos de selección, arreglo, etc.), en realidad, fueron concebidos y ejecutados no por un hombre sino por una máquina”.

Nótese que la Copyright Office realiza un análisis de si la adaptación de la fotografía se trata de una obra derivada que cumpla -dicha adaptación, y no la fotografía inicial- con los requisitos legales para la protección -autoría humana y originalidad-. El estudio no versa, por tanto, sobre la obra prexistente, que puede quedar incorporada a la obra derivada, sino sobre la obra derivada, esto es, sobre la modificación llevada a cabo en la fotografía originaria empleando para ello el Sr. Sahni la herramienta de inteligencia artificial RAGHAV.

De acuerdo con la Copyright Office, dado que Sr. Sahni solo proporcionó tres entradas a RAGHAV -una imagen base, una imagen de estilo y un valor variable que determina la cantidad de transferencia de estilo-, fue la aplicación RAGHAV, y no el Sr. Sahni, la responsable de determinar cómo interpolar las imágenes base y de estilo de acuerdo con el valor de transferencia de estilo, decidiendo dónde se colocarían el sol, las nubes y el edificio y qué colores tendrían.

De acuerdo con la Copyright Office, a la luz de la descripción ofrecida por el Sr. Sahni en su solicitud de registro, el modelo de inteligencia artificial RAGHAV “predice estilizaciones de pinturas y texturas nunca antes observadas”, y esa función predictiva está ligada a “la proximidad de la imagen de estilo a los estilos entrenados por el modelo”.

Tomando en consideración todo ello, la Copyright Office concluye que el hecho de seleccionar un solo número para un filtro de estilo a implementar por un software es un tipo de autoría de minimis no protegida por derechos de autor y el hecho de elegir el estilo con el que se va a modificar la fotografía originaria es una acción que entra dentro del campo de las ideas o los conceptos reflejados en una obra y que, por tanto, no merece protección por el copyright, ni puede ser objeto de registro (10).

Desde el CIPI estaremos muy atentos a las futuras resoluciones de la Copyright Office en las que se aplique nuevamente la Guía.

 

(1) Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, 88 Fed. Reg. 16,190, 16,192 (de 16 de marzo de 2023).

(2) https://blog.cipi.es/blog2-intelectual/item/253-copyright-office-estadounidense-e-inteligencia-artificial-un-analisis-de-la-copyright-registration-guidance-works-containing-material-generated-by-artificial-intelligence.

(3) La resolución de la Copyright Office estadounidense data de 11 de diciembre de 2023 y es accesible aquí: https://www.copyright.gov/rulings-filings/review-board/docs/SURYAST.pdf

(4) En la resolución de la Copyright Office se reproduce la imagen inicial tomada por el Sr. Sahni, el cuadro “La noche estrellada” de Van Gogh, así como el resultado final creado por la herramienta de inteligencia artificial.

(5) Téngase en cuenta que, en realidad, se trata del segundo recurso planteado por el Sr. Sahni frente a la denegación de registro. El 27 de septiembre de 2022, el Sr. Sahni solicitó una primera reconsideración de la Copyright Office frente a la negativa inicial de registro. Argumentaba el Sr. Sahni que “el requisito de autoría humana no significa ni puede significar que una obra deba ser creada en su totalidad por un autor humano”. Después de revisar de nuevo la solicitud, la Copyright Office confirmó la denegación de registro, por entender que la obra -que se trataba de la adaptación digital de una fotografía- carecía de suficiente autoría humana original. En opinión de la Copyright Office, los nuevos aspectos de la obra -añadidos a la fotografía realizada en sí por el Sr. Sahni, aspecto este último que nadie discute- fueron generados por “la aplicación RAGHAV, y no por el Sr. Sahni”, por lo que estos aspectos nuevos “no fueron el resultado de la creatividad o la autoría humana”. Acerca de la diferenciación entre la fotografía originaria tomada por el Sr. Sahni y la modificación de ésta, creada por la inteligencia artificial, la Copyright Office concluye “El Sr. Sahni puede solicitar el registro de su fotografía, suponiendo que cumpla con todos los requisitos legales, pero no puede registrar la versión modificada por la inteligencia artificial”.

(6) Thaler v. Perlmutter, No. 22-cv-1564, 2023 WL 5333236 (D.D.C. Aug. 18, 2023).

(7) https://blog.cipi.es/blog2-intelectual/item/224-la-historia-de-a-recent-entrance-to-paradise-dabus-y-otros-amigos-unas-reflexiones-sobre-como-se-han-venido-tratando-las-solicitudes-de-steven-thaler-de-registro-de-obras-y-de-invenciones-creadas-por-algoritmos

(8) Téngase en cuenta que el caso no es problemático desde el punto de vista de la infracción de derechos sobre obras empleadas como imput del programa, toda vez que, al menos en este caso, la obra utilizada fue pintada por Vicent van Gogh, fallecido en 1890, y, por tanto, caída en el dominio público.

(9) Thaler v. Perlmutter, No. 22-cv-1564, 2023 WL 5333236, párrafo 4 (D.D.C. Aug. 18, 2023).

(10) De acuerdo con la Copyright Office, “[d]ebido a que el Sr. Sahni ejerció un control creativo insuficiente sobre la creación de la obra por parte de RAGHAV, no puede registrarla” (p. 8).

COPYRIGHT OFFICE ESTADOUNIDENSE E INTELIGENCIA ARTIFICIAL: UN ANÁLISIS DE LA "COPYRIGHT REGISTRATION GUIDANCE: WORKS CONTAINING MATERIAL GENERATED BY ARTIFICIAL INTELLIGENCE"

(La autora es Contratada Doctora de Derecho Civil de la UAM y miembro del equipo de dirección del CIPI)

El 17 de febrero de 2024, la Asociación Literaria y Artística Internacional (en adelante, ALAI) publicaba su Resolución sobre el impacto de la inteligencia artificial en la propiedad intelectual (en adelante, la Resolución) (1), con la que el Comité Ejecutivo exponía la postura sobre la relación entre la IA y los derechos de autor y derechos conexos. Una interesante reseña de esta resolución, a cargo de Javier Fernández-Lasquetty Martín, puede leerse aquí (2). En ella, ALAI pone de manifiesto la relación entre el concepto de autoría y el principio humanista, dejando fuera del ámbito de protección del derecho de autor toda creación realizada autónomamente por un sistema de inteligencia artificial, sin seguir órdenes pre-programadas por seres humanos.

Un año antes, la Copyright Office estadounidense expresaba su postura en torno a la posibilidad de registrar -y proteger por el derecho de autor- obras en cuyo proceso de creación se hubieran empleado herramientas de inteligencia artificial. Lo hizo en las Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence (88 Fed. Reg. 16,190, 16,192), publicada el 16 de marzo de 2023, que es accesible aquí (3). Como se analizará a continuación, los principios sobre los que descansa la Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence (en adelante, la Guía) son similares a los contenidos en la Resolución de ALAI.

En sus primeras páginas, la Copyright Office justifica la necesidad de esta Guía en el número creciente de solicitudes que o bien califican una herramienta de inteligencia artificial de autor o coautor de una obra o bien señalan en el título de la obra o en el contenido de la solicitud de registro la inclusión de material creado con inteligencia artificial.

La Guía llega después de dos célebres resoluciones de la Copyright Office estadounidense sobre la materia. Hablamos de los casos “A Recent Entrance to Paradise” y “Zayra of the Dawn”.

Ya nos referimos al primero de ellos en una entrada anterior publicada en este blog, que puede leerse aquí (4). De manera sumaria, los hechos fueron los siguientes. Steven Thaler solicitó el registro de una imagen en dos dimensiones, figurando en el formulario correspondiente como persona solicitante del registro de una work for hire u obra por encargo y propietario de “la Máquina de la Creatividad” (the Creativity Machine). De acuerdo con la citada solicitud, la obra “fue autónomamente creada por un algoritmo funcionando en una máquina”. El registro fue denegado y dicha denegación fue objeto de recurso.

La Copyright Office, en su resolución de 14 de febrero de 2022, mantuvo una postura férrea: la obra carecía de la autoría humana necesaria para su tutela por el derecho de autor, exigida por la sección 102(a) de la Copyright Act y la doctrina jurisprudencial vigente (5). Ello porque el Sr. Thaler no había aportado evidencia de una intervención humana suficiente en el proceso creativo de la obra.

En paralelo, la Copyright Office indica que la imagen “A Recent Entrance to Paradise” no puede considerarse una work for hire, dado que la sección 101 de la Copyright Act exige para ello que haya sido creada por un empleado o en cumplimiento de un contrato en el que ambas partes contractuales califican la creación como work for hire. Teniendo en cuenta que la Creative Machine no goza de capacidad jurídica para ser parte de un contrato no tiene sentido discutir si la imagen así creada puede subsumirse en el concepto de work for hire.

El caso del cómic Zayra of the Dawn, cuya parte gráfica había sido creada empleando la inteligencia artificial Midjourney, es posterior. La resolución que da contestación al recurso entablado por la solicitante tiene fecha de 21 de febrero de 2023 (6). Los hechos son los siguientes. De acuerdo con la Copyright Office, las imágenes empleadas en dicho cómic fueron generadas por un algoritmo de inteligencia artificial.

De ahí que la Copyright Office cancelase el certificado original de registro emitido a la Sra. Kashtanova -solicitante del registro y autora del cómic- y emitiese uno nuevo que cubre únicamente el material expresivo que ella creó (el texto del cómic), conservando la fecha de registro inicial -15 de septiembre de 2022-. En la solicitud de registro, la Sra. Kashtanova no informaba del empleo de este algoritmo de inteligencia artificial en la creación de la parte gráfica del cómic. De ahí que la Copyright Office le solicitase información adicional y, una vez proporcionados los datos, concluyera en este sentido.

En la contestación al recurso interpuesto por la Sra. Kashtanova, la Copyright Office analiza el funcionamiento de la herramienta de inteligencia artificial Midjourney, para concluir que no existe aporte o intervención creativa humana suficiente. La intervención humana se limitó a introducir los prompts o mandatos en el mecanismo de búsqueda interno de Midjourney y fue el algoritmo el que generó las imágenes, mientras que el papel de la Sra. Kashtanova se limitó a elegir las imágenes de salida de cada uno de los cientos de imágenes intermedias generadas por el algoritmo.

En palabras de la Copyright Office, “[e]n lugar de ser una herramienta que Kashtanova controlaba y guiaba para alcanzar la imagen deseada, Midjourney genera imágenes de forma impredecible. En consecuencia, los usuarios de Midjourney no son los autores a efectos de derechos de autor de las imágenes que genera la tecnología” (p. 8). “Una persona que proporciona mensajes de texto a Midjourney no “forma realmente” las imágenes generadas y no es la “mente maestra” detrás de ellas” (p. 9).

La Copyright Office no pone en duda que la solicitante empleara mucho tiempo y esfuerzo a trabajar con Midjourney, pero afirma que “ese esfuerzo no la convierte en la “autora” de las imágenes de Midjourney según la Copyright Act, dado que el Tribunal Supremo rechazó el argumento de que el sudor de la frente pueda ser la base de la protección por el derecho de autor, al entender que ni el tiempo, ni el esfuerzo, ni los gastos influyen en si una obra posee la chispa creativa mínima requerida para su tutela por el derecho de autor (p. 10, en cita de la célebre sentencia el Tribunal Supremo estadounidense en el caso Feist Publications, Inc. contra Rural Tel. Serv. Co y del epígrafe 310.7 del U.S. Copyright Office Compendium Practices) (7).

Este era el estado de la cuestión en la fecha en la que la Copyright Office publica la Guía de 2023 sobre la materia. La Copyright Office señala que la publicación de esta Guía no se va a traducir en una denegación de la tutela de toda obra en cuyo proceso creativo se haya empleado una herramienta de inteligencia artificial, sino que habrá que estar a las circunstancias del caso para analizar hasta qué punto el ser humano tuvo control creativo sobre la expresión de la creación y realmente creó los elementos tradicionales de la autoría de una obra.

La Copyright Office parte de la base de que tanto la Constitución como la Copyright Act estadounidenses exigen la autoría humana de obras para conferir la protección por el derecho de autor, dado que el empleo en ambos textos del término “autor” ha de entenderse referido a la creatividad humana y, por tanto, han de quedar excluidos los productos creados por no humanos. Cita para ello la célebre sentencia Burrow-Giles Lithographic Co. v. Sarony, al igual que hiciera en las resoluciones de los recursos frente a la denegación del registro a las que nos hemos referido anteriormente.

Además, recuerda que el principio humanista ya estaba presente en el Compendio de prácticas que la Copyright Office publicó en 1973, en el que se advertía sobre la imposibilidad de registrar materiales que no “debieran su origen a un agente humano” (8). Dato que se recordaba en la segunda edición de dicho Compendio, de 1984 (9). Postura que se mantiene en la edición actual del Compendio, de 2021, en la que se afirma que “para calificar como obra de 'autoría' ésta debe ser creada por un ser humano” y que “no registrará obras producidas por una máquina o mero proceso mecánico que opera de forma aleatoria o automática sin ningún aporte o intervención creativa de un autor humano” (10). 

A continuación, la Copyright Office se adentra en el estudio del requisito de autoría humana, cuyo cumplimiento es imprescindible para proceder al registro de obras. El primer paso de la Copyright Office ante una solicitud de registro es el análisis de las concretas circunstancias de la creación especificadas en el formulario por el solicitante, para determinar si en el proceso creativo ha existido autoría humana, siendo la computadora simplemente un instrumento auxiliar, o si, por el contrario, los elementos tradicionales de autoría en la obra (la expresión literaria, artística o musical, elementos de selección, disposición, etc.) fueron, en realidad, concebidos y ejecutados por una máquina. 

A pesar de hacer un llamamiento a la valoración casuística, la Copyright Office señala que, de acuerdo con el actual avance y funcionamiento de las inteligencias artificiales generativas, en muchas ocasiones los usuarios no ejercen el control creativo final sobre cómo dichos sistemas interpretan las indicaciones de los usuarios, las implementan y generan el concreto material que sigue esas indicaciones.

Pone el siguiente ejemplo: “si un usuario le indica a una tecnología de generación de texto que ‘escriba un poema sobre la ley de derechos de autor al estilo de William Shakespeare’, puede esperar que el sistema genere un texto que sea reconocible como un poema, mencione los derechos de autor y se parezca al estilo de Shakespeare. Pero será la tecnología -y no el usuario- quien decidirá el patrón de rima, las palabras en cada línea y la estructura del texto”. De ahí que concluya que, en este ejemplo, es la inteligencia artificial la que determina los elementos expresivos de la obra y que, por ello, el material generado no es producto de la autoría humana, carece de protección por el derecho de autor y la solicitud de registro ha de ser rechazada.

Sin embargo, en otros casos sí existirá autoría humana porque un ser humano selecciona u organiza material generado por la inteligencia artificial de una manera suficientemente creativa o cuando un ser humano modifica el material generado por una herramienta de inteligencia artificial hasta tal punto que las modificaciones cumplan con el estándar de protección de derechos de autor. En estos casos se otorgará protección por el derecho de autor -y se concederá el registro-, pero solamente referido a aquellos aspectos de la obra en los que haya existido esa intervención humana o autoría humana suficiente, dejando fuera todos aquellos aspectos generados por la inteligencia artificial.

Finalmente, la Copyright Office introduce una serie de orientaciones para los sujetos solicitantes de registro de obras. A saber:

  1. i) Los solicitantes de registro tienen el deber de revelar la inclusión de contenido generado por herramientas de inteligencia artificial en una obra presentada para registro, identificando con precisión las partes contenidas en la obra que hayan sido creadas por inteligencia artificial -que no podrán registrarse y quedarán excluidas de protección- y deben proporcionar una breve explicación de las contribuciones del autor humano a la obra. La obra no se registrará ni se protegerá por el copyright si no ha existido una intervención suficiente en los elementos tradicionales de la autoría humana de las obras.
  2. ii) Los solicitantes de registro deben completar la declaración del campo “autor” describiendo la autoría humana de dicha obra, si la tiene. En este apartado no puede indicarse el nombre de la herramienta de inteligencia artificial o de la empresa que proporciona dicha tecnología.

iii) En sí mismo, el contenido generado por la inteligencia artificial debe excluirse explícitamente de la solicitud de registro, dado que carece de tutela por el derecho de autor. Se aconseja que dicha exclusión se haga en el apartado “Limitación de la solicitud de registro” del formulario estándar de solicitud de registro.

Asimismo, la Copyright Office ofrece una serie de directrices a cumplir por los solicitantes que ya hubieran presentado solicitudes para el registro de obras que contengan material generado por inteligencia artificial. A saber:

  1. i) Deben comprobar que la información contenida en la solicitud identifique correctamente qué partes de la obra fueron creadas por herramientas de inteligencia artificial.
  2. ii) Si la solicitud está pendiente de resolución y esta obligación de información no se ha cumplido, el solicitante ha de informar a la Copyright Office de esta omisión.

iii) El examinador se puede comunicar con el solicitante para obtener información adicional.

  1. iv) En el caso de solicitudes ya tramitadas que hubieran sido resueltas positivamente, el solicitante deberá corregir el registro público presentando una solicitud de registro complementaria, con el objetivo de ampliar la información sobre el papel del ser humano y de la inteligencia artificial en el proceso creativo.
  2. v) Siempre que exista suficiente autoría humana, la Copyright Office corregirá el registro, para excluir las partes generadas por inteligencia artificial, y emitirá un nuevo certificado de registro complementario.
  3. vi) Los solicitantes que no actualicen la información contenida en la Copyright Office corren el riesgo de perder los beneficios del registro.

vii) La Copyright Office puede modificar o cancelar el registro cuando tenga conocimiento de que información esencial para la evaluación del registro de una obra se ha omitido o es cuestionable su veracidad.

viii) Asimismo, los tribunales pueden anular el registro, por infracción de la Copyright Act, si concluyen que el solicitante proporcionó a la Copyright Office información inexacta y que la información precisa habría dado lugar a la denegación del registro.

De la lectura de la Guía se infiere la necesidad de redactar el formulario de solicitud de registro con especial cuidado, debiendo identificar con precisión los materiales creados por la máquina y aquellos generados por el ser humano, así como el papel concreto que el ser humano ha podido tener en cualquier de las fases del proceso creativo.

Finalmente, la Copyright Office refleja su compromiso de monitorear nuevos desarrollos fácticos y legales relacionados con la inteligencia artificial y publicar orientaciones adicionales en el futuro relacionadas con el registro, así como una encuesta con la que conocer la opinión pública sobre otros aspectos legales paralelos sobre las implicaciones jurídicas de la inteligencia artificial.

La Guía de la Copyright Office, al igual que la Resolución de la ALAI a la que hicimos referencia al inicio de esta entrada, forman un relevante acquis de la propiedad intelectual en materia de inteligencia artificial. Los puntos en común de ambos documentos son relevantes y numerosos, lo cual nos aporta como juristas cierta seguridad jurídica sobre lo que ambas instituciones consideran correcto sobre esta cuestión, teniendo en cuenta el estado del arte actual. Son las bases de las que partir a la hora de registrar creaciones, pero también conforman una importante base científica que pueda ser empleada por nuestros legisladores a la hora de regular nuevas reglas sobre este extremo. Habremos de estar atentos a los siguientes pasos que la Copyright Office y la ALAI den en el futuro cercano.

 

(1) https://www.alai.org/en/assets/files/resolutions/240217-impact-ia-copyright_en.pdf

(2) https://blog.cipi.es/blog2-intelectual/item/250-alai-y-la-ia-resena-de-la-resolucion-de-17-de-febrero-de-2024-el-impacto-de-la-ia-en-la-propiedad-intelectual 

(3) https://www.federalregister.gov/documents/2023/03/16/2023-05321/copyright-registration-guidance-works-containing-material-generated-by-artificial-intelligence

(4) https://blog.cipi.es/blog2-intelectual/item/224-la-historia-de-a-recent-entrance-to-paradise-dabus-y-otros-amigos-unas-reflexiones-sobre-como-se-han-venido-tratando-las-solicitudes-de-steven-thaler-de-registro-de-obras-y-de-invenciones-creadas-por-algoritmos

(5) Las sentencias dictadas en los casos Burrow-Giles Lithographic Co. v. Sarony [111 U.S. 53, 56 (1884)], Mazer v. Stein [347 U.S. 201, 214 (1954)], Goldstein v. California [412 U.S. 546, 561 (1973)] y Naruto v. Slater [888 F.3d 418, 426 (9th Cir. 2018)], en las que se sostiene que el término autor, en el sentido constitucional, es la persona, el ser humano, del que emana la obra, el origen mismo de la obra.

(6) Accesible en https://www.copyright.gov/docs/zarya-of-the-dawn.pdf

(7) 499 U.S. 340, 345 (1991).

(8) Accesible aquí: https://copyright.gov/history/comp/compendium-one.pdf

(9) Accesible aquí: https://www.copyright.gov/history/comp/compendium-two.pdf

(10) Accesible aquí: https://www.copyright.gov/comp3/docs/compendium.pdf

ALAI Y LA IA: RESEÑA DE LA RESOLUCIÓN DE 17 DE FEBRERO DE 2024. EL IMPACTO DE LA IA EN LA PROPIEDAD INTELECTUAL.

(El autor es miembro del CIPI y Contratado Investigador en Formación de la UAM)

La llegada al sector cultural de la inteligencia artificial generativa basada en modelos de machine learning (en adelante, IA) ocasiona un considerable desasosiego por dos razones. Primeramente, para poder ser entrenada necesita «alimentarse» de una inconmensurable cantidad de obras y otras prestaciones protegidas por derechos conexos. En segundo lugar, la IA es capaz, por sí sola, de generar obras y representaciones con una dosis de intervención humana notablemente menor que otras tecnologías anteriores.

DESAFÍOS Y PERSPECTIVAS JURISPRUDENCIALES EN LA PROPIEDAD INTELECTUAL: EXPLORANDO EL ARTE CONCEPTUAL CON LA INTELIGENCIA ARTIFICIAL.

(La autora es estudiante de la XVIII edición del Máster en Propiedad Intelectual, Industrial y Nuevas Tecnologías UAM y ganadora de la I Edición del Premio CIPI)

La controversia que tratamos de exponer en este artículo se centra en cuestionarnos acerca de la autoría de la obra: quién es autor. En muchas ocasiones, la autoría es una combinación de la mente creativa espiritual y la mano que ejecuta. Ambas tareas pueden recaer en la misma persona o bien se puede dividir entre la mente que concibe la obra o el que ejecuta por un encargo. En situaciones donde la materialización de la idea recae en manos de alguien distinto al creador conceptual, surge el interrogante de a quién se le atribuye la autoría o, por el contrario, si el resultado es fruto de la colaboración.

Sin embargo, como podremos ver a continuación, la pregunta no siempre tiene una respuesta clara y dependerá de las circunstancias específicas de cada obra y del contexto legal y artístico en el que se encuentre. Estas cuestiones han llegado a ser debatidas ante las Audiencias Provinciales españolas, dando lugar a respuestas significativas relativas a la atribución. Asimismo, veremos que esta problemática también es susceptible de debate en referencia a aquellas obras creadas mediante sistemas de aprendizaje automático (machine learning), siempre que puedan considerarse originales.