EL CÓDIGO DE BUENAS PRÁCTICAS EN MATERIA DE IA Y SU INCIDENCIA EN LOS DERECHOS DE PROPIEDAD INTELECTUAL.

(El autor es Profesor Titular de Derecho Civil de la UAM y secretario del CIPI)

Julio ha sido un mes "movido" en lo que tiene que ver con la inteligencia artificial (IA) y la propiedad intelectual. La Comisión Europea presentó tres documentos muy relevantes que demuestran de una manera más que evidente cómo el legislador que aprobó el Reglamento (UE) 2024/1689, de 13 de junio, sobre IA, tuvo en mente el derecho de autor y los derechos conexos, y cómo puede afectarles esta nueva tecnología. Esos tres documentos son: 1) el Código de Buenas Prácticas (en adelante, CBP) para los modelos de IA de uso general (10 de julio); 2) las directrices sobre el ámbito de aplicación de las normas relativas a los modelos de IA de uso general (18 de julio); 3) la plantilla para presentar el resumen de los datos utilizados para el entrenamiento de modelos de uso general (24 de julio). Como se puede comprobar, la relación entre la IA y los derechos de propiedad intelectual es de plena actualidad. En esta entrada abordaré el CBP (disponible en: https://digital-strategy.ec.europa.eu/es/policies/contents-code-gpai), quedando relegado el comentario a los otros documentos para otra.

El CBP constituye una herramienta voluntaria para sus destinatarios, que ha sido preparada por expertos independientes. La adhesión al Código permite a los proveedores de modelos de IA de uso general demostrar el cumplimiento de sus obligaciones de una manera más fácil, reduciendo la carga administrativa y dándoles más seguridad jurídica que si utilizaran otros medios para ello. Los destinatarios de tales obligaciones podrán entender qué se espera que hagan para dar cumplimiento al Reglamento 2024/1689. Recuérdese que las obligaciones previstas en el capítulo III, sección 4, el capítulo V, el capítulo VII y el capítulo XII y el artículo 78 empezaron a ser aplicables a partir del 2 de agosto de 2025, a excepción del artículo 101, según su artículo 113.III.b), si bien el poder coercitivo de la Comisión para forzar su cumplimiento, incluso imponiendo multas, no comienza hasta el 2 de agosto de 2026. Además, los proveedores que introdujeron modelos en el mercado antes del 2 de agosto de 2025 deben cumplir con las obligaciones a más tardar el 2 de agosto de 2027. El Código consta de tres capítulos: uno dedicado a la transparencia, orientado al cumplimiento de las obligaciones establecidas en las letras a) y b) del artículo 53.1 Reglamento 2024/1689; otro relativo a los derechos de propiedad intelectual, que tiene que ver con la obligación recogida en la letra c) del artículo 53.1 Reglamento 2024/1689; y un tercero sobre seguridad, acorde con las obligaciones incluidas en los artículos 55 y 56 Reglamento 2024/1689. Por razones obvias, me centraré en el que tiene que ver con el respeto a los derechos de propiedad intelectual.

El CBP es una guía para demostrar el cumplimiento de estas obligaciones del Reglamento 2024/1689, pero la adhesión a él no constituye una evidencia de su cumplimiento [objetivo específico a) CBP] ni del cumplimiento de la normativa europea sobre propiedad intelectual [cdo. a) CBP]. Efectivamente, que un proveedor de IA haya decidido adherirse al CBP no presume que esté actuando conforme a la normativa, pues para ello debe implementar una serie de medidas que garanticen su cumplimiento. De nada sirve adherirse si luego los proveedores no establecen directrices para respetar el Derecho de la UE en materia de propiedad intelectual y para detectar y cumplir las reservas de derechos hechas conforme el artículo 4.3 Directiva 2019/790, que es a lo que obliga el artículo 53.1.c) Reglamento 2024/1689. Se trata ésta de una obligación de hacer, que requiere una actitud activa en el cumplimiento de los derechos de autor y de los derechos conexos. Asimismo, el CBP no afecta a la aplicación y cumplimiento del Derecho de la UE en materia de propiedad intelectual [cdo. b) CBP] ni a los acuerdos que los signatarios hayan establecido con los titulares de derechos sobre el uso autorizado de obras y prestaciones [cdo. e) CBP]. Además, el CBP afirma que los compromisos que se adquieran en virtud de este documento para dar cumplimiento a la obligación contenida en el artículo 53.1.c) Reglamento 2024/1689 son complementarios con la obligación establecida en el artículo 53.3.d) Reglamento 2024/1689, relacionada con la publicación de resúmenes sobre el contenido utilizado para entrenar los modelos de IA de uso general [cdo. f) CBP].

Todo proveedor de modelos de IA de uso general que firme el CBP está reconociendo, por este solo hecho, que el Derecho de la UE sobre derecho de autor y derechos conexos: a) está previsto en las directivas dirigidas a los Estados miembros y, para los fines que aquí se están contemplando, especialmente en la Directiva 2001/29, sobre derecho de autor y derechos conexos en la sociedad de la información, en la Directiva 2019/790, sobre derechos de autor y derechos conexos en el mercado único digital, y en la Directiva 2004/48, sobre cumplimiento de los derechos de propiedad intelectual; b) establece derechos de exclusiva que tienen una naturaleza preventiva, basada en el consentimiento previo a la hora de utilizar una obra o prestación protegida, salvo que resulte aplicable una excepción -algo que ha sido reiterado por el TJUE en muchas de sus sentencias [ej.: SSTJUE de 6 de marzo de 2025 (caso ONG, asunto C-575/23, pár. 106), de 20 de junio de 2024 (caso GEMA, asunto C-135/23, pár. 17) o de 11 de abril de 2024 (caso Citadines, asunto C-723/22, pár. 37)]-; c) establece una excepción para la minería de textos y datos en el artículo 4.1 Directiva 2019/790, que resultará aplicable cuando se cumplan dos condiciones básicas: 1) que se haya tenido un acceso legítimo al contenido protegido que se quiere utilizar a estos efectos, 2) que los titulares de derechos no hayan impedido expresamente la aplicación de la excepción reservándose los derechos de una manera adecuada, conforme al artículo 4.3 Directiva 2019/790 [cdo. c) CBP].

En este capítulo del CBP, el principal compromiso propuesto por la Comisión es el diseño de una política de respeto de los derechos de propiedad intelectual. Ahora bien, no se trata únicamente de diseñarla, sino también de mantenerla debidamente actualizada y de implementarla efectivamente. Con todo, esas medidas que dispongan en sus políticas deben ser acordes con la transposición que han hecho los Estados miembros de las normas europeas sobre derecho de autor y derechos conexos, y, en particular, con el artículo 4.3 Directiva 2019/790. Los signatarios son los responsables de garantizar esa concordancia. En consecuencia, deben respetarse los derechos de reproducción, distribución y comunicación pública, previstos en los artículos 2 a 4 Directiva 2001/29, o las excepciones incluidas en el artículo 5 Directiva 2001/29 y 3 a 6 Directiva 2019/790, entre otras cuestiones.

El capítulo del CBP dedicado a la propiedad intelectual prevé cinco medidas: 1) el diseño, la actualización y la implementación de una política de respeto a los derechos de propiedad intelectual; 2) la reproducción únicamente de obras y prestaciones respecto de las cuales se haya tenido acceso legítimo, cuando se lleva a cabo el entrenamiento de los modelos de IA a través de web-crawling; 3) la identificación y el respeto de las reservas de derechos realizadas por sus titulares, cuando se lleve a cabo ese web-crawling; 4) la mitigación del riesgo de infracciones a los derechos de propiedad intelectual en el output; 5) la designación de un punto de contacto con quien comunicarse y ante el cual los titulares de derechos puedan presentar las correspondientes quejas. La primera de estas medidas se centra en el momento en que se pone en el mercado de la UE el modelo de IA de uso general. Es a partir de entonces cuando esa política debe ponerse en marcha, si bien el respeto de los derechos de propiedad intelectual debe hacerse desde el mismo momento en que se entrena el modelo de IA. Las medidas 2 y 3 se refieren a dos momentos: la fase de entrenamiento y la fase de uso del modelo por parte de terceros. En ambos deben reproducirse únicamente obras y prestaciones de las que se tenga un acceso legítimo. Recuérdese que el entrenamiento puede hacerse no solo por el programador del modelo de IA, sino también por el propio usuario. Finalmente, las medidas 4 y 5 tienen que ver con la fase de uso del modelo por terceros. El output que puedan generar los usuarios al utilizar el modelo de IA no puede contravenir los derechos de propiedad intelectual y, si se producen infracciones, los titulares de tales derechos deben tener un punto de contacto al que dirigirse para poder reclamar.

La primera medida a adoptar por parte de los signatarios es el diseño, mantenimiento, actualización e implementación de una política de respeto del Derecho de la UE en materia de propiedad intelectual, cuando pongan en el mercado de la UE modelos de IA de uso general. Esta política, según el punto 1 de esta primera medida, debe incluirse en un documento único, debe incorporar las medidas establecidas en este capítulo del CBP y debe señalar quién es el responsable dentro de la organización para la implementación y el monitoreo de esta política -parece un rol similar al que juega el delegado de protección de datos-. No obstante, no se obliga a los proveedores de modelos de IA de uso general a poner esta política a disposición del público en toda su extensión, sino que se les anima a publicar un resumen de la misma, si bien debe estar actualizado (vid. punto 2 de la medida 1 CBP).

La segunda medida tiene como finalidad garantizar que únicamente se reproducen obras y prestaciones que sean accesibles de forma legítima a la hora de rastrear las webs para fines de minería en el sentido del artículo 2.2 Directiva 2019/790. Este fin debe cumplirse no sólo en el momento en que los programadores entrenan el modelo de IA, sino también cuando son los propios usuarios los que lo alimentan mediante contenidos protegidos por la propiedad intelectual. Esta medida viene a recoger el requisito de acceso legítimo ya previsto en el artículo 4 Directiva 2019/790 para llevar a cabo la minería. Para conseguir este objetivo, los signatarios asumen dos compromisos. El primero es no eludir, a la hora de hacer ese rastreo, las medidas tecnológicas efectivas, tal como son definidas en el artículo 6.3 Directiva 2001/29, que estén diseñadas para impedir o restringir actos no autorizados respecto de obras y prestaciones protegidas, debiéndose respetar, en particular, cualquier denegación o restricción de acceso impuesta tecnológicamente mediante modelos de suscripción o de pago [punto 1.a) de la medida 2 CBP]. Se trata de impedir los usos no autorizados no sólo por el titular de los derechos, sino también por la ley, si bien habrá que tener en cuenta el artículo 6.4 Directiva 2001/29, por lo que respecta a la relación entre las excepciones a los derechos de propiedad intelectual y las medidas tecnológicas. 

Este compromiso se refiere a todas las medidas tecnológicas en general y a las de control de acceso en especial. No obstante, sería conveniente distinguir entre las medidas tecnológicas anticopia y las medidas tecnológicas de control de acceso. No es posible concluir que el uso de cualquier medida tecnológica deba presumir la oposición a la minería, sino que este efecto dependerá del tipo de medida que se utilice por parte de los titulares de derechos. Si se trata de medidas anticopia, cabe presumir esa oposición. Sin embargo, si estamos ante medidas de control del acceso a la obra o prestación, no cabe presumir la oposición, pues cabe entender que, pagando o efectuando la suscripción, es posible la minería respecto de esa obra o prestación -salvo que se haya expresado de una manera más clara la reserva-. Lo único a lo que se refiere este compromiso es a no eludir, en estos casos, la medida tecnológica, pero no a dejar de utilizar tales contenidos.  

El segundo compromiso que deben asumir los proveedores es excluir del rastreo los sitios web que pongan a disposición del público contenidos protegidos y que, en el momento de ese rastreo, hayan sido reconocidos por los tribunales o por las autoridades públicas como infractores persistentes y reiterados de los derechos de autor y de los derechos conexos, en la UE y en el Espacio Económico Europeo (EEE) [punto 1.b) de la medida 2 CBP]. Para dar cumplimiento a este compromiso, se publicará, en algún sitio web de la UE, una lista dinámica de hipervínculos a estos sitios web, emitida por los organismos pertinentes de la UE y del EEE. Obsérvese que no se refiere a cualquier página web que ponga a disposición del público ilícitamente contenidos protegidos, sino únicamente a aquellos que hayan sido “etiquetados” como infractores reiterados por los organismos competentes. Por tanto, quedaría excluido de este compromiso el rastreo de: 1) sitios web que pongan a disposición del público contenidos protegidos de manera ilícita pero que aún no hayan sido declarados infractores por Tribunales u órganos administrativos; 2) sitios web que habiendo sido declarados infractores, no lo sean de manera reiterada, pero sigan permitiendo esos usos ilícitos. Esto podría llegar a poner en verdadero riesgo la protección de los derechos de propiedad intelectual, por no decir que la eficacia de esa lista dependerá su actualización, pues si no se mantiene al día, el cumplimiento del compromiso será bastante limitado. 

La tercera medida tiene por objetivo identificar y cumplir con la reserva de derechos cuando se produce el rastreo de sitios web. Para garantizar que los signatarios identifiquen y cumplan las reservas de derechos realizadas mediante medios de lectura mecánica de conformidad con el artículo 4.3 Directiva 2019/790, tanto si hacen ellos mismos el rastreo como si lo hacen terceros en su nombre para extraer o recopilar datos con fines de minería para el entrenamiento de modelos de IA de uso general, deben asumir dos compromisos. En primer lugar, se comprometen a emplear rastreadores web que lean y sigan las instrucciones expresadas de acuerdo con el protocolo de exclusión de robots (robots.txt), tal como se especifica en la Solicitud de Comentarios (Request for Comments – RFC) número 9309 del Grupo de Trabajo en Ingeniería de Internet (IETF), así como en cualquier versión posterior de dicho Protocolo respecto de la cual el IETF acredite su viabilidad técnica y su posibilidad de implementación tanto por los proveedores de IA como por los proveedores de contenidos, incluyendo los titulares de derechos [punto 1.a) de la medida 3 CBP]. Se trata éste de un método definido originalmente por Martijn Koster en 1994, destinado a controlar la forma en que el contenido ofrecido puede ser accedido por rastreadores (crawlers). En 2022, este protocolo fue ampliado y enmendado por ingenieros de Google (disponible en: https://www.rfc-editor.org/rfc/rfc9309.pdf). A pesar de su actualización, no resulta recomendable apoyarse en protocolos aún en desarrollo, pues esto genera incertidumbre técnica.

Y, en segundo lugar, se comprometen a identificar y cumplir con otros protocolos de lectura mecánica adecuados para expresar reservas de derechos de conformidad con el artículo 4.3 Directiva 2019/790 [punto 1.b) de la medida 3 CBP]. Se ponen como ejemplos los metadatos basados en activos o en la localización, que hayan sido adoptados por organizaciones internacionales o europeas de normalización y que hayan sido ampliamente acordados a través de procedimientos que hayan contado con la participación de los titulares de derechos, los proveedores de IA y otras posibles partes interesadas.

En definitiva, se trata de que los proveedores de modelos de IA de uso general respeten las reservas de derechos que hayan expresado los titulares de propiedad intelectual, oponiéndose a la minería de textos y datos mediante medios de lectura mecánica adecuados. El CBP se refiere al protocolo de exclusión de robots y a los metadatos, pero hay muchos más. El protocolo de exclusión de robots es la manera más habitual que utilizan los sitios web para indicar a los rastreadores a qué partes pueden acceder y a cuáles no. Ahora bien, no es un mecanismo de control de acceso real, pues el archivo robots.txt no bloquea físicamente a los robots, sino que lo que hace es publicar instrucciones que los rastreadores deben decidir si obedecen o no. De ahí que el RFC número 9309 a que alude el CBP aclare que este protocolo es una convención voluntaria, no un permiso ni una prohibición jurídicamente vinculante en sí mismo. Así, los rastreadores respetuosos normalmente cumplirán lo que se les indica, pero un bot malicioso o uno que no siga el estándar podrá ignorar las reglas y acceder igualmente al contenido. Podría decirse que el protocolo robots.txt funciona como un cartel en la puerta donde se indica “no pasar”, pero sería necesario “cerrar con llave esa puerta”, un control de acceso real, como podría ser un mecanismo de autenticación o un firewall. Algo similar ocurre con los metadatos, que se caracterizan por la voluntariedad en su cumplimiento. Ese carácter voluntario se ve ahora comprometido por el CBP, al establecer la adopción del compromiso de respetar los robots.txt y los metadatos utilizados por los titulares de derechos para oponerse a la minería conforme al artículo 4.3 Directiva 2019/790. Dicho esto, el CBP, a través de esta medida, está poniendo una carga excesiva a los titulares de derechos, que tendrán que expresar la reserva de sus derechos a través de formatos específicos que sean adecuados para ser detectados por los proveedores y que la hagan valer. No hay que olvidar, además, que el uso de determinados mecanismos para expresar la reserva puede afectar, al mismo tiempo, a la indexación en buscadores de los contenidos o a su disponibilidad en Internet. Sería bueno, para evitar estos efectos negativos, que se creara un protocolo único de metadatos para llevar a cabo la reserva de derechos que estuviera avalado por la UE y que fuera fácil de implementar por los titulares de derechos.

El CBP señala que el compromiso anterior no afecta al derecho de los titulares de propiedad intelectual a reservarse expresamente el uso de obras y prestaciones para fines de minería conforme al artículo 4.3 Directiva 2019/790 de cualquier manera apropiada, como medios de lectura mecánica en el caso de contenidos puestos a disposición online o por cualesquiera otros medios (punto 2 de la medida 3 CBP). Efectivamente, los proveedores de modelos de IA de uso general no sólo deben respetar los protocolos adoptados por los titulares de derechos como expresión de su oposición a la minería, sino que también deben respetar esa reserva de derechos en otras situaciones. A saber: a) cuando los proveedores utilizan mecanismos de rastreo para el entrenamiento de los modelos y los titulares expresan la reserva de derechos mediante mecanismos distintos a los protocolos apuntados en el punto 1 de la medida 3 CBP; b) cuando los proveedores no utilizan mecanismos de rastreo, sino que llevan a cabo un entrenamiento más “manual”. Cabe recordar que la Directiva 2019/790 no obliga a los titulares de derechos a oponerse mediante protocolos, sino que pueden utilizar otros tipos de medidas de lectura mecánica, cuando ponen sus contenidos a disposición del público online, o incluso declaraciones de voluntad en contra de la minería, no legibles por una máquina. Este punto 2 de la medida 3 CBP y el propio artículo 4.3 Directiva 2019/790 hablan de reservas hechas de “manera adecuada”, citando, a título de ejemplo, los medios de lectura mecánica -el CBP abre la posibilidad de usar “otros medios”-.

Pero el CBP va más allá y establece, en ese mismo punto 2, que este compromiso, el del punto 1 de la medida 3, no afecta a la aplicación del Derecho de la UE en materia de propiedad intelectual para proteger el contenido extraído o rastreado de Internet por terceros y utilizado por los signatarios para los fines de minería y entrenamiento de los modelos de IA de uso general. Por tanto, no sólo se trata de respetar las reservas de derechos, sino también toda la propiedad intelectual en general. De esta manera, se generará responsabilidad no sólo si se incumple una reserva de derechos, sino también si se rastrea y se extrae un contenido online cuyo titular consiente la minería, pero el proveedor va más allá de lo permitido a través de la excepción.

Asimismo, se anima a los signatarios a apoyar los mecanismos señalados en las letras a) y b) del punto 1 de esta medida 3, y a participar voluntariamente y de buena fe en conversaciones con los titulares de derechos y con otras partes interesadas, con el objetivo de desarrollar protocolos y estándares de lectura mecánica adecuados para expresar la reserva de derechos de conformidad con el artículo 4.3 Directiva 2019/790 (punto 3 de la medida 3 CBP).

Además, los signatarios se comprometen a adoptar las medidas pertinentes para permitir que los titulares de derechos afectados obtengan información sobre los rastreadores web utilizados, sus protocolos robots.txt y otras medidas que un signatario haya adoptado para identificar y cumplir con las reservas de derechos expresadas conforme al artículo 4.3 Directiva 2019/790, en el momento del rastreo (punto 4 de la medida 3 CBP). Este compromiso se desdobla en dos medidas: 1) la publicación de dicha información; 2) el establecimiento de un medio para que los titulares de derechos afectados sean automáticamente notificados cuando dicha información sea actualizada, sin perjuicio del derecho de información previsto en el artículo 8 Directiva 2004/48. Esto demuestra que la facultad de oposición otorgada por el artículo 4.3 Directiva 2019/790 no solamente funciona a priori, antes de proceder a la explotación de la obra o prestación por parte del titular, sino también a posteriori. Podría ocurrir que un titular de derechos, de inicio, no se hubiera opuesto a la minería y que, tras descubrir que su contenido está siendo utilizado para entrenar un modelo de IA de uso general a través de la información publicada por su proveedor, decida oponerse. 

Por último, en esta tercera medida se insta a los signatarios que suministren un motor de búsqueda online, tal como se define en el artículo 3.j) Reglamento 2022/2065, o ejerzan el control sobre un prestador que suministre tal servicio, a adoptar las medidas oportunas para garantizar que el cumplimiento de las reservas de derechos realizadas en el marco de la minería de textos y datos, así como el entrenamiento de modelos de IA de uso general, no produzca de manera directa efectos adversos en la indexación del contenido a través de sus motores de búsqueda, de los dominios y/o de las URLs respecto de las cuales se haya expresado la correspondiente reserva de derechos. Se pretende evitar que los proveedores de modelos de IA penalicen a aquellos titulares que se hayan reservado sus derechos, haciéndolos desaparecer o indexándolos en peores puestos cuando ofrecen los resultados de sus motores de búsqueda. Deben tratar en condiciones de igualdad a los titulares que no se reservan sus derechos y permiten el entrenamiento de los modelos de IA con sus obras y prestaciones, y a los titulares que se oponen a ello. De hecho, el Reglamento, entre otros, plantea como objetivo evitar que los algoritmos de recomendación favorezcan sistemáticamente ciertas obras y prestaciones en detrimento de otras. De ahí que obligue a los proveedores de modelos de IA a informar sobre cómo funcionan sus sistemas de recomendación, evitando así la opacidad algorítmica. Se trataría de conseguir, en definitiva, una oferta plural y no discriminatoria, favoreciendo la diversidad cultural, algo que va en la línea del artículo 167.4 TFUE y del Convenio de la UNESCO de 2005 sobre la Protección y Promoción de la Diversidad de las Expresiones Culturales.

La cuarta medida que incorpora el CBP tiene que ver con la necesidad de mitigar el riesgo de que un modelo de IA de uso general dé lugar a resultados (outputs) que infrinjan los derechos de propiedad intelectual. El CBP establece que esta medida cuarta se aplica con independencia de si un signatario integra el modelo en su propio sistema de IA o si el modelo se suministra a otra entidad en virtud de una relación contractual (punto 2 de la medida 4 CBP). Para conseguir ese objetivo, el Código plantea dos compromisos que tendrían que asumir los signatarios. En primer lugar, implantar salvaguardas técnicas adecuadas y proporcionadas destinadas a evitar que estos modelos generen resultados que reproduzcan, de tal manera que se produzca una infracción, los contenidos con los que han sido entrenados y que están protegidos por la propiedad intelectual [punto 1.a) de la medida 4 CBP]. Conviene tener presente que no se trata de evitar cualquier reproducción de obras y prestaciones en el resultado generado por la IA, sino de evitar únicamente aquellas que constituyan una infracción. Recuérdese, a estos efectos, que la excepción de minería contemplada en el artículo 4 Directiva 2019/790 únicamente permite la reproducción de contenidos protegidos como input, esto es, como material para entrenar el modelo, pero no ampara su reproducción en el output. En cambio, sí permitiría la reproducción en los resultados cuando ésta no constituya una infracción, como podría ser el caso en el que se utiliza la IA para generar una parodia, excepción que permite reproducir y transformar determinados elementos característicos de la obra originaria en la obra derivada con el fin de que el público haga mentalmente la asociación entre una y otra, y produzca el efecto humorístico. No obstante, este compromiso es bastante ambiguo, por cuanto no define qué salvaguardas se consideran adecuadas y proporcionadas, dejando una excesiva discrecionalidad al proveedor (ej.: filtros de similitud entre outputs y los contenidos de entrenamiento, mecanismos para detectar el plagio, watermarking).

El segundo compromiso que tendrían que adoptar los signatarios es prohibir, en su política de uso, en sus términos y condiciones o en documentos equivalentes, la utilización de los modelos de tal manera que se infrinjan los derechos de propiedad intelectual, o, en el caso de modelos de IA de uso general distribuidos bajo licencias libres y de código abierto, advertir a los usuarios de la prohibición de usos infractores de los derechos de propiedad intelectual en la documentación que acompañe al modelo [punto 1.b) de la medida 4 CBP]. Así, los usuarios de estos modelos de IA deben ser conscientes de que no pueden vulnerar los derechos de autor y los derechos conexos a través de estas herramientas (ej.: entrenándolos con contenidos a los que hayan tenido un acceso ilícito). La eficacia de esta medida es bastante relativa, por cuanto, hoy en día, muchos sitios web advierten de esta cuestión y, a pesar de ello, se siguen cometiendo infracciones. Hay un exceso de confianza en estas políticas de uso, que vienen a jugar un rol más declarativo que preventivo. El proveedor debería plantearse el contemplar algún tipo de sanción para el usuario que incumpla (ej.: el cierre o la suspensión de la suscripción).

Finalmente, la quinta medida se refiere a la designación de un punto de contacto para permita la presentación de reclamaciones. A estos efectos, los signatarios se comprometen a establecer un punto de contacto para la comunicación electrónica con los titulares de derechos afectados y a proporcionar información fácilmente accesible al respecto (punto 1 de la medida 5 CBP). Además, se comprometen a establecer un mecanismo que permita a los titulares de derechos afectados y a sus representantes autorizados, como pudieran ser las entidades de gestión, presentar, por vía electrónica, reclamaciones debidamente fundamentadas relativas al incumplimiento por parte de los signatarios de sus compromisos conforme al CBP, así como a proporcionar información fácilmente accesible al respecto (punto 2 de la medida 5 CBP). El Código señala que los signatarios deben actuar de forma diligente, no arbitraria y en un plazo razonable ante las reclamaciones, salvo que sean manifiestamente infundadas o que el signatario ya haya respondido a una idéntica presentada por el mismo titular de derechos. No obstante, este compromiso no afecta a las medidas, recursos y sanciones disponibles para hacer cumplir los derechos de propiedad intelectual conforme al Derecho de la UE y al Derecho nacional de los Estados miembros en esta materia. Como no podía ser de otro modo, este mecanismo no impide que los titulares de propiedad intelectual ejerciten las correspondientes acciones en defensa de sus derechos. 

Esta medida plantea varias inseguridades. En primer lugar, la de determinar cuándo una reclamación está suficientemente fundada como para que el proveedor del modelo de IA se tome la molestia de tramitarla. Está claro que un mínimo de fundamentación deben tener, para así evitar el riesgo de saturación a los proveedores con quejas nimias -piénsese, por ejemplo, que un proveedor pequeño puede no tener la infraestructura necesaria para gestionar un elevado número de reclamaciones de manera eficiente, de ahí que el considerando d) CBP señale que, en el cumplimiento de los compromisos, deberá tenerse en cuenta el tamaño de los proveedores, permitiendo la flexibilidad-. Quizá sería conveniente que, desde la UE, se estableciera un formulario común que ayude a los titulares de derechos a presentarlas debidamente fundamentadas. Y, en segundo lugar, la ausencia de un plazo claro y obligatorio en el que el proveedor deba responder a la reclamación. Habría sido más eficiente establecer un plazo al estilo de lo que ocurre en el Derecho de consumo (ej.: treinta días naturales). La Oficina de IA deberá supervisar y hacer seguimiento de estos procesos para comprobar que se siguen los compromisos asumidos conforme al CBP, pues habrá que evitar que los proveedores incurran en arbitrariedad a la hora de resolverlas o en una desestimación sistemática sin ningún tipo de justificación. Al menos, las decisiones de los proveedores deberían ser recurribles ante la Oficina. Incluso no sería descabellado exigir a éstos que publiquen periódicamente, y en virtud del principio de transparencia, el número de quejas recibidas, el tiempo medio de respuesta y el porcentaje de quejas aceptadas y rechazadas.

En definitiva, el CBP tiene un objetivo claro y alineado con la normativa europea en materia de propiedad intelectual. Sin embargo, la falta de obligatoriedad en la adhesión y su carácter orientativo pudieran llevar al código a constituir una herramienta insuficiente para la protección de estos derechos. A ello contribuye también la ambigüedad en determinadas medidas técnicas. Considero que habría sido más eficiente presentarlo como un documento de mínimos, a partir del cual los proveedores tienen libertad y flexibilidad para dar cumplimiento con los compromisos. Habrá que esperar a ver si verdaderamente cumple su cometido.

 

 

ALGUNAS REFLEXIONES SOBRE EL COPYRIGHTABILITY REPORT DE LA US COPYRIGHT OFFICE.

 

(La autora es Profesora Contratada Doctora de Derecho civil UAM (acreditada a TU) y miembro del equipo de dirección del CIPI - UAM)

 

No es la primera vez -y, posiblemente, tampoco será la última- que en este blog hablamos de la postura adoptada por la United States Copyright Office -en adelante, USCO- ante las solicitudes de registro de resultados generados por sistemas de inteligencia artificial. Ya lo hicimos aquí en relación con el caso “A Recent Entrance to Paradise”; aquí, en referencia al caso “Zayra of the Dawn”; y aquí cuando hablamos del caso “SURYAST”.

También hemos dado cuenta de la resolución de la USCO “Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence”, conocida como la “AI Registration Guidance” (88 Fed. Reg. 16,190, 16,192), publicada el 16 de marzo de 2023, que es accesible a través de su página web y comentada en esta entrada del blog.

De acuerdo con los datos de este registro público, desde la publicación de la guía de 2023 se han registrado cientos de obras que incorporan material generado por IA, siendo que el registro -la protección por el copyright- únicamente cubre la contribución realizada por un autor humano a la obra. Entre los comentaristas que enviaron aportaciones a la USCO se encuentran productores musicales y audiovisuales, que afirman emplear sistemas de IA como parte de su proceso creativo, para desarrollar ritmos o mezclar pistas musicales, así como para corregir colores, agudizar detalles de efectos especiales o desenfocar, eliminar objetos grabados o modificar la apariencia física para incrementar o reducir la edad de los actores. Asimismo, los comentaristas reconocen el uso habitual de sistemas de IA en la fase inicial del proceso creativo, como parte de la tarea de búsqueda de lluvia de ideas o borrador.

En esta entrada, nos centraremos en la Parte II del Report on Copyright and Artificial Intelligence emitido con fecha de 29 de enero de 2025, con el título “Copyrightability”, accesible aquí. Un documento de 52 páginas que resulta de gran interés, tanto por las afirmaciones que contiene, como por los ejemplos que sirven de ilustración. En él se analizan el tipo y el nivel de contribución humana suficiente para poder proteger por derechos de autor los resultados -outputs- generados por la IA.

Recordemos que en 2024 la USCO publicó la primera parte de este informe -el Report que llevó por título “Digital Replicas”, que es accesible aquí-. Todos estos documentos forman parte de la iniciativa de la USCO anunciada en 2023: realizar un estudio general de la intersección entre la IA y la propiedad intelectual.

La USCO parte del hecho de que el uso de la tecnología en la producción de obras de autor no es algo nuevo, dado que los autores han utilizado tecnología asistida por ordenador durante décadas para mejorar y modificar sus creaciones. Este problema ya se planteó en la década de los sesenta, en relación con los programas de ordenador.

Ya entonces se discutía si existía o no autoría humana. Y ya entonces la respuesta que se dio sigue vigente ahora: no existe una contestación única aplicable a todos los supuestos, sino que debe analizarse si el ordenador fue un mero instrumento de asistencia del autor humano, o si los elementos tradicionales de autoría en la obra (expresión literaria, artística o musical o elementos de selección, arreglo, etc.) fueron, en realidad, concebidos y ejecutados por una máquina.

Tampoco actualmente la respuesta que se dé puede ser categórica, en el sentido de denegar el registro de toda obra en cuya creación se haya empleado una IA. Habrá que estar a las circunstancias fácticas del caso. Sostiene la USCO que ni el uso de la IA como mera herramienta de asistencia en el proceso creativo, ni la incorporación de contenido generado por IA en una obra más grande sujeta a derechos de autor afectan la disponibilidad de protección por derechos de autor a la obra en su conjunto.

A la pregunta de si deberían los productos generados por IA gozar de protección de derechos de autor, la respuesta que procede dar depende de la naturaleza y el alcance de la contribución que haya realizado un ser humano en el caso concreto, pues ello determinará la existencia de autoría humana de los elementos expresivos contenidos en el producto de que se trate.

Un segundo punto de partida de la USCO tiene que ver con la flexibilidad del derecho de autor para expandirse a nuevos tipos de obras, para responder a las nuevas tecnologías y a los nuevos medios.

La novedad de la tecnología actual es que el sistema de IA genera el output a partir de la introducción de uno o varios prompts, yendo desde indicaciones muy breves y simples hasta otras muy detalladas, y pudiendo ingresarse dichos prompts una única vez o de manera reiterada, incluso cientos o miles de veces, con el objetivo de refinar el resultado generado por el sistema de IA, hasta que el output generado efectivamente satisfaga las necesidades del usuario. El tiempo y el esfuerzo humano empleado en cada caso será diferente.

Como explica la USCO, el sistema de IA puede generar un resultado excluyendo algún concreto contenido que el usuario ha querido discriminar expresamente, pero también puede incluir contenido que el usuario no haya especificado, por lo que existen importantes dosis de incertidumbre sobre la interpretación que cada sistema de IA -construido con miles de millones de parámetros- realizará de cada prompt, siendo que la lógica que explica las decisiones tomadas por cada modelo es compleja, dado que al poder predictivo de las redes neuronales que permiten el funcionamiento de esos sistemas se le suma cierta arbitrariedad -de difícil interpretación y predicción para el ser humano-. El grado de imprevisibilidad llega al punto de que un sistema de IA puede generar resultados diferentes a partir de prompts o solicitudes idénticas.

La base jurídica de la que parte la USCO en su informe es el principio humanista: el copyright exige la existencia de autoría humana, tal y como el Tribunal Supremo viene interpretando la Constitución y la Copyright Act: “el autor [de una obra protegida por derechos de autor] es … la persona que traduce una idea en una expresión fija y tangible con derecho a la protección de los derechos de autor” [Cmty. for Creative Non-Violence v. Reid (“CCNV”), 490 U.S. 730, 737 (1989)].

El mero hecho de encargar una obra y dar sugerencias sobre ésta no convierte al comitente en autor, sostuvo el Tribunal Supremo en este caso, referido a una obra plástica. Hasta la fecha, ningún tribunal norteamericano ha reconocido derechos de autor sobre material creado por no humanos.

Haciendo referencia a la célebre sentencia del Tribunal Supremo dictada en el caso Feist Publications, Inc. v. Rural Telephone Service Co [499 U.S. 340, 344-45 (1991)], la USCO señala que la doctrina del sweat of the brow, que permitía proteger por el copyright el mero esfuerzo o el tiempo, quedó desde entonces derogada, dejando claro que únicamente la originalidad es protegible, y que las ideas o datos narrados o contenidos en la obra en sí carecen de protección.

Seguidamente, la USCO hace referencia a un caso célebre sobre la configuración del concepto de autoría de las obras fotográficas: el litigio Burrow-Giles Lithographic Co. v. Sarony (111 U.S. 53, 55–57 (1884), en el que el Tribunal Supremo concluyó que el uso de máquinas no conduce a tener que denegar la protección por el copyright, pues la obra resultante sí quedará protegida cuando contenga suficientes elementos expresivos de autoría humana, como son, en el caso de la fotografía, la disposición del objeto captado, la selección y disposición de vestuario y accesorios y la evocación de la expresión deseada.

La USCO trae a colación las discusiones -contenidas en varios pronunciamientos resueltos por los tribunales de diversos circuitos, que no llegaron a ascender al Supreme Court- sobre la coautoría para llamar la atención sobre el hecho de que para ser considerado coautor de una obra la persona ha tenido que realizar una contribución que per se sea susceptible de protección a la hora de expresar las ideas, no el mero acto de proporcionar ideas.

Como cuestión separada del debate sobre la protección o no del output del sistema de IA, la USCO afirma que “los prompts, por sí mismos, si son suficientemente creativos, pueden quedar protegidos por el derecho de autor” (pp. 20-21). Sin embargo, el hecho de introducir prompts, a modo de ideas o indicaciones que no se pueden proteger, no convierte el resultado que proporcione la IA en una obra protegible. Se llama la atención sobre el dato de que muchos prompts se introducen en el sistema de IA en un medio -por ejemplo, texto- distinto del medio en el que el sistema de IA genera el output -por ejemplo, imagen, video o audio-.

La USCO concluye que, dada la tecnología generalmente disponible en la actualidad, las indicaciones por sí solas no proporcionan suficiente control humano para convertir a los usuarios de un sistema de IA en los autores del resultado. En efecto, las indicaciones que se contienen en los prompts funcionan esencialmente como instrucciones que transmiten ideas no protegibles, pero no permiten al usuario controlar cómo el sistema de IA procesa dichas ideas para generar el resultado. Además, la selección por el usuario de un concreto output o resultado generado por la IA no es per se una decisión creativa, es decir, una decisión original de autoría humana que deba protegerse.

Para realizar estas afirmaciones, la USCO acude al debate sobre la coautoría. Los litigios que tienen que ver con esta cuestión se resuelven analizando la cantidad de control que es necesaria para reclamar la autoría. Pues bien, la provisión de instrucciones detalladas, sin influencia sobre cómo se ejecutan esas instrucciones, es insuficiente.

Tras ello, la USCO hace una importante advertencia: ingresar prompts en un sistema de IA tiene importantes diferencias con el acto de aportar instrucciones a un “artista” encargado de crear una obra. En una colaboración entre personas, según cuál sea la naturaleza de las contribuciones de cada parte, el “artista” puede ser el único autor o, por el contrario, el resultado puede ser una obra en coautoría. En la actualidad, las indicaciones dadas por los usuarios mediante prompts no llegan a determinar adecuadamente los elementos expresivos producidos ni permiten controlar cómo el sistema los traduce en un resultado.

Las indicaciones solamente reflejan la concepción mental o las ideas del usuario, pero, con la tecnología existente actualmente, el usuario no controla la forma en la que la IA expresa esa idea. En este sentido, el hecho de que el uso de dos prompts idénticos pueda dar lugar a que un mismo sistema de IA genere dos outputs diferentes, así como la propia existencia de brechas entre las indicaciones y los outputs resultantes -quedando algunas instrucciones sin reflejar y completando el sistema de IA los espacios vacíos- demuestran que el usuario carece de control sobre la conversión de sus ideas en una expresión fija, y es el sistema de IA quien determina los elementos expresivos en el resultado generado, al interpretar los prompts que introduce el usuario como forma de ejecución de la idea del usuario.

A modo de ejemplo, la USCO utiliza al pintor Jackson Pollock, al que uno de los comentaristas de la iniciativa trajo a colación en su aportación. A diferencia del proceso de generación del output de un sistema de IA, el proceso creativo de Pollock tiene a este pintor como principal responsable de la ejecución de la idea y la determinación de los elementos expresivos en la obra resultante.

El proceso de creación de Pollock no terminaba con su visión o idea de una obra, sino que era él el que controlaba la elección de colores, el número de capas, la profundidad de la textura, la colocación de cada elemento añadido a la composición general y era él quien, con sus propios movimientos corporales, controlaba asimismo la ejecución de cada una de estas decisiones.

Seguidamente, la USCO extiende esta argumentación al proceso de creación de obras fotográficas sobre la naturaleza: el copyright se otorga sobre decisiones humanas originales, tales como el ángulo y la ubicación de la cámara, la velocidad de disparo y sobre decisiones humanas originales de posproducción de la fotografía, sin que la protección por el derecho de autor quede excluida por algunos elementos de aleatoriedad, porque lo que se debe analizar es el grado de control humano, y no el carácter predecible o no del resultado del proceso.

El hecho de que la generación de algunos outputs se realice tras un importante esfuerzo y tiempo del usuario, por haber insertado un número elevado de prompts en la IA generativa utilizada, es irrelevante a estos efectos, señala la USCO, dado que, por un lado, el número de prompts empleados no hace que el usuario llegue a ostentar el control del proceso creativo y, por otro lado, el sweat of the brow no es ya el parámetro a analizar a la hora de otorgar el copyright, sino la originalidad de la obra creada por un ser humano.

La USCO se inclina, por tanto, por la postura que había sido defendida en sus propias aportaciones a la iniciativa de la USCO por algunos de los académicos que son referentes a nivel mundial en esta materia: los profesores Jane Ginsburg y Luke Ali Budiardjo, por un lado, y Daniel Gervais, por otro.

En relación con la denominada teoría de la adopción -que implica que un usuario que acepta como bueno un output generado por un sistema de IA está ejerciendo un juicio creativo y, por ello, ha de ser tenido por autor del output- Ginsburg y Budiardjo habían afirmado “si la adopción posterior a la ejecución sustituyera cualquier participación del autor, incluso indirecta o involuntaria, al dar forma física a una obra, entonces, además de [nombrar] al autor ‘equivocado’, la ley de derechos de autor otorgaría efectivamente a los adoptantes derechos sobre las ideas”.

Por su parte, la oposición de Gervais a la teoría de la adopción se refleja de manera muy visual con la siguiente analogía ofrecida por este autor: “Si entro en una galería o tienda que se especializa en pinturas o cuadros de la sabana africana porque estoy buscando una idea específica (por ejemplo, un elefante al atardecer, con árboles a lo lejos), puedo encontrar una pintura o cuadro que se ajuste a mi idea”, pero “eso de ninguna manera me convierte en autor”. La USCO no acoge la postura defendida por otros reconocidos académicos.

Entre ellos, los profesores Pamela Samuelson, Christopher Jon Sprigman y Matthew Sag, que defendieron que el requisito de la autoría humana sí se cumple por aquella persona que instruya a una IA generativa con suficiente detalle, de modo que el resultado del modelo refleje la concepción original de la obra de esa persona.

En otro orden de cosas, la USCO analiza las implicaciones jurídicas de la inserción por el propio usuario de una obra de originalidad propia como input en un sistema de IA para generar por parte de dicho sistema un output en el que se reproduzcan partes de dicho input. A modo de ejemplo, una fotografía hecha por el usuario que es subida por éste al sistema de IA para que la IA modifique colores y proporciones, o la obra literaria escrita por un usuario en primera persona que es subida al sistema de IA para que éste la redacte en tercera persona.

Este tipo de inputs nada tiene que ver con el mero uso de prompts por el usuario para comunicar ideas que quiera ver reflejadas en el resultado generado por la máquina. Ello porque si el output generado por el sistema de IA reproduce parte del input creado por el usuario, éste habrá tenido una contribución a ese resultado mayor que la mera concepción intelectual.

La USCO pone como ejemplo “Rose Enigma”, una obra cuyo registro se solicitó por Kris Kashtanova. El registro se concedió en 2023, con la siguiente anotación: “El registro se limita a la autoría pictórica humana inalterada que es claramente perceptible en el depósito y separable de la expresión no humana que está excluida de la reivindicación”.

En efecto, en su solicitud de registro, la autora excluyó expresamente “cualquier expresión no humana” que apareciera en la obra final -en este caso, la representación tridimensional realista de la nariz, los labios y los capullos de rosa, así como la iluminación y las sombras del fondo, pues habían sido generados por la IA, a diferencia del resto de elementos expresivos de la obra, que sí figuraban en el dibujo de su autoría que utilizó como input en el sistema de IA y que se perciben claramente en el resultado final-.

En su informe, la USCO se reafirma en esta conclusión: cuando un ser humano introduce su propia obra protegida por derechos de autor como input en un sistema de IA y dicha obra es perceptible en el resultado, será el autor de al menos esa parte del resultado. Y añade la siguiente idea: además, el derecho de autor de ese usuario también podrá cubrir la selección, coordinación y disposición originales de la suma del material creado por él, como ser humano, y de los resultados generados por IA, aunque no se extienda dicho derecho de autor per se sobre cada elemento individual generado por la IA.

En el siguiente apartado, la USCO reflexiona sobre el hecho de que un ser humano puede modificar el resultado generado originariamente por un sistema de IA hasta tal punto que las modificaciones introducidas cumplan con el estándar de protección del derecho de autor. La USCO explica cuál viene siendo su respuesta a un caso recurrente: la solicitud de registro de la combinación de texto creado por autor humano con imágenes generadas por un sistema de IA.

En este caso, si se cumple el requisito de la originalidad -por ser fruto de una serie de decisiones humanas creativas- de la selección y disposición en cada página de imágenes generadas por el sistema de IA con el texto creado por el autor humano, entonces esa suma o combinación final puede quedar protegida como compilación (base de datos) por el derecho de autor, aun cuando el concreto elemento generado por la IA no goce de protección -salvo que haya sido modificado por un ser humano posteriormente, en cuyo caso dichas modificaciones, si son originales, sí quedarían tuteladas por el derecho de autor-. La USCO pone como ejemplo su resolución de 21 de febrero de 2023 en el caso Zayra of the Dawn.

La USCO pone como ejemplos algunas funcionalidades o herramientas de sistemas de IA como Midjourney o ChatGPT que permiten al usuario ejercitar cierto control sobre la selección y disposición de los contenidos en el resultado final. A diferencia de la función de insertar prompts, presente de manera generalizada en los sistemas de IA, estas concretas herramientas o funcionalidades solamente están disponibles en algunos sistemas y permiten al usuario controlar efectivamente la selección y la colocación de elementos creativos individuales.

Por ello, la USCO sostiene que el análisis habrá de realizarse caso por caso y cuando se llegue a la conclusión de que las modificaciones introducidas por el ser humano en el resultado inicial del sistema de IA sean originales, entonces dicho resultado será susceptible de protección por derechos de autor.

En este punto, sería ciertamente aconsejable que la USCO clarificase que lo relevante en sí es el dato de que el usuario sea quien toma decisiones creativas a la hora de elegir las modificaciones a introducir y de controlar la expresión concreta de dichas modificaciones, y no así el dato de su la herramienta empleada para introducir esas modificaciones es, asimismo, un sistema de IA o no. En efecto, los ejemplos traídos a colación en este epígrafe del informe restan claridad y diferenciación con respecto a la problemática discutida en los epígrafes previos.

Tras ello, la USCO advierte que la inclusión de contenidos generados por sistemas de IA en una obra más grande creada por humanos no afecta a la protección por derechos de autor de la obra en su conjunto, aun cuando el concreto elemento generado por la IA quede excluido de dicha tutela.

En el siguiente epígrafe del informe, dedicado al estudio de los pasos dados por otros países, la USCO concluye que la mayoría de países que han analizado la posibilidad de proteger por derecho de autor obras que contengan material creado por sistemas de IA aplican el principio humanista como base del análisis.

La Unión Europea es mencionada dentro de este grupo, junto con Corea del Sur, Japón y China. Asimismo, advierte sobre la consulta pública que Reino Unido ha iniciado en diciembre de 2024 sobre esta materia, con vistas a modificar o mantener la regulación de la protección de las obras generadas por ordenador actualmente vigente. Regulación que rige, de manera similar, en otros países que conformaron o conforman la Commonwealth, como Hong Kong, India y Nueva Zelanda.

En el apartado sobre lege ferenda, la USCO señala que, dado que el copyright exige la autoría humana, la legislación sobre derechos de autor no puede ser la base de la protección de creaciones que no satisfacen ese requisito. Si bien el Congreso estadounidense podría considerar establecer derechos sui generis para los resultados generados por la IA, la USCO no considera convincentes los argumentos de política a favor de una protección adicional.

Los desarrolladores de sistemas de IA ya disfrutan actualmente de incentivos -por ejemplo, por la vía de las patentes o, incluso, del derecho de autor sobre el software, en su caso, así como del Derecho de la competencia- y crear una nueva forma de tutela podría suponer un efecto adverso para los autores humanos, una suerte de desincentivo para estos y para la sociedad en general, si es que ello se traduce en una reducción del número de obras creadas por autores humanos.

Por todo ello, la USCO sostiene que los principios y doctrinas jurídicas existentes son suficientes para dar respuesta a los distintos problemas analizados en este informe. De acuerdo con la USCO, la legislación estadounidense sobre derechos de autor ha demostrado una importante capacidad de adaptación a las nuevas tecnologías y puede permitir la determinación caso por caso de si los resultados generados por sistemas de IA reflejan una contribución humana suficiente para justificar la protección por derechos de autor, en aquellos casos en los que un ser humano haya podido determinar los elementos expresivos que contienen los outputs del sistema de IA.

A modo de resumen, la USCO identifica las siguientes conclusiones de su Copyrightability Report:

  • Las cuestiones que plantea la relación entre la propiedad intelectual y la IA se pueden resolver con base en el Derecho existente, sin necesidad de una modificación legislativa.
  • El uso de herramientas de IA para asistir a la creatividad humana, sin sustituirla, no afecta a la posible tutela del resultado final por el derecho de autor.
  • El derecho de autor protege la expresión original de una obra creada por un ser humano, incluso si esa obra incluye material generado por la IA.
  • El derecho de autor no se puede extender a material generado íntegramente por la IA o en el que no haya existido un control humano suficiente sobre la expresión. En estos casos no debe regularse ni un derecho de autor adicional, ni un derecho sui generis.
  • El análisis sobre si las contribuciones humanas al output generado por sistemas de IA son suficientes para hacer surgir el derecho de autor debe realizarse caso por caso.
  • Teniendo en cuenta el funcionamiento actual de la IA, los prompts no aportan suficiente control humano sobre la expresión.
  • Los autores humanos gozarán de la protección por el derecho de autor sobre las obras de su autoría insertadas en el sistema de IA como input que puedan percibirse dentro de los outputs generados por la IA, así como sobre la selección, coordinación o disposición originales de los outputs o en la creación de modificaciones originales de esos outputs.

En el propio texto de su informe, la USCO se compromete a prestar asistencia jurídica al público en materia de registro de resultados generados por la IA y a actualizar el Compendium of U.S. Copyright Office Practices, cuya tercera y última edición data de 2021.

Además, anuncia que próximamente publicará una tercera parte de su informe, dedicada al análisis de las implicaciones para la propiedad intelectual del entrenamiento de sistemas de IA.

Desde el CIPI estaremos muy atentos en los próximos meses al futuro informe anunciado, en el que seguramente se afrontará la posibilidad de subsumir o no actos de minería necesarios para el entrenamiento de sistemas de IA en la tradicional defensa estadounidense por fair use.

 

DEEPFAKES: EL NUEVO RETO LEGAL Y ÉTICO EN LA ERA DE LA DESINFORMACIÓN.

(La autora es exalumna de la XVIII Edición del Máster en Propiedad Intelectual, Industrial y NN.TT.)

Los deepfakes son una de las mayores amenazas que enfrenta la sociedad contemporánea debido a su capacidad para crear contenidos visuales y sonoros que parecen absolutamente reales, pero que, en realidad, son completamente falsos. Específicamente, según INCIBE (Instituto Nacional de Ciberseguridad), los deepfakes son vídeos manipulados para hacer creer a los usuarios que ven a una determinada persona, tanto si es anónima como si es un personaje público, realizando declaraciones o acciones que nunca ocurrieron.

Esta tecnología utiliza algoritmos de inteligencia artificial, específicamente el aprendizaje profundo o deep learning, para alterar o crear imágenes, audios y vídeos que manipulan la apariencia o las palabras de personas, a menudo sin que ellas lo sepan o lo consientan. De hecho, la palabra deepfake es un término combinado de “deep learning” y “fake”.

Esta tecnología emergente vio su origen en el mundo de la investigación con aplicaciones prácticas en el mundo del cine como una alternativa a los procesos de construcciones digitales, que tienden a generar altos costos. Quizá el ejemplo más famoso de la implementación de esta tecnología en el cine es la última película de la saga Star Wars, en la cual la actriz Carrie Fisher, conocida por su personaje de la princesa Leia, había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para las escenas que faltaba grabar.

No obstante, el potencial de los deepfakes para ser utilizados con fines maliciosos plantea serias preocupaciones éticas, legales y políticas, particularmente en el contexto de la desinformación y la manipulación pública. En un mundo donde las redes sociales juegan un papel clave en la propagación de información, los deepfakes han emergido como una herramienta poderosa de desinformación, capaz de influir en la percepción pública de una manera antes nunca vista. En este sentido, la preocupación por el uso indebido de esta tecnología se ha incrementado en diversas esferas, especialmente en el ámbito electoral.

Un claro ejemplo de esta amenaza fue el uso de deepfakes durante las elecciones presidenciales en Estados Unidos, donde se temió que los contenidos manipulados pudieran influir en los resultados o alterar la percepción pública de los candidatos. Según datos de Pew Research Center (1), un 57% de los estadounidenses se sienten extremadamente preocupados por el uso de inteligencia artificial para manipular la opinión pública, especialmente durante los comicios.

Este fenómeno ha trascendido las fronteras de los Estados Unidos y se ha convertido en un reto global. Según el AI Index 2024 (2), un informe elaborado por la Universidad de Stanford, los deepfakes ya están afectando a los procesos electorales en distintas partes del mundo, incrementando el riesgo de manipulación de la opinión pública y el debilitamiento de la democracia.

La facilidad con la que los deepfakes pueden ser creados y distribuidos es un factor clave que amplifica su peligrosidad. Cualquier persona con acceso a herramientas y programas de inteligencia artificial puede generar un vídeo manipulando la imagen de un individuo o una situación con una calidad sorprendente. Estos vídeos no solo son difíciles de detectar como falsos, sino que su viralización en plataformas de internet hace aún más complicado controlarlos.

Un caso concreto de cómo pueden alterar la percepción pública y generar confusión fue el vídeo, en 2022, en el que el presidente de Ucrania, Volodymyr Zelensky, aparecía supuestamente anunciando su rendición a Rusia en el contexto de la guerra (3). Este vídeo manipulado, aunque rápidamente identificado como una falsificación, generó una gran alarma entre la población, subrayando los riesgos que los deepfakes suponen en situaciones de alta tensión política y bélica.

Este tipo de manipulaciones masivas ha contribuido a la creación de lo que algunos expertos denominan “infopocalipsis”: una crisis de confianza en la información. La desinformación es cada vez más difícil de distinguir de la verdad, lo que provoca un clima de incertidumbre en la sociedad. La propagación de deepfakes y otros tipos de contenido manipulado ha hecho que las personas sean más escépticas ante las noticias, lo que plantea un desafío sin precedentes para los periodistas y las plataformas de redes sociales.

En este sentido, los medios de comunicación y los periodistas tienen la responsabilidad de verificar y autenticar la información, utilizando herramientas tecnológicas para detectar deepfakes y garantizar que la información que se difunde sea fidedigna. Sin embargo, la velocidad con la que los contenidos circulan en internet y las técnicas de manipulación utilizadas hacen que sea extremadamente difícil para los medios frenar la desinformación en tiempo real.

Debido a la rapidez del desarrollo de esta tecnología, se ha tenido que estudiar qué leyes regulan de manera más analógica estos problemas, esperando a que se aprueben nuevas normas que ayuden a ajustar estas recientes amenazas.

En cuanto a la normativa española, los deepfakes se enmarcan dentro de un contexto legal que protege varios derechos fundamentales. La Constitución Española establece, en su artículo 18, el derecho al honor, la intimidad personal y familiar, y la propia imagen, derechos específicamente protegidos en Ley Orgánica 1/1982, lo que implica que la creación y distribución de contenido manipulado que afecte a estas esferas podría estar vulnerando estos derechos.

En este sentido, el Código Penal español también prevé diversos delitos que podrían aplicarse en situaciones de deepfakes. Los delitos contra el honor, por ejemplo, podrían ser aplicados en casos de calumnias y difamaciones derivadas de vídeos manipulados que dañen la reputación de una persona.

Además, el artículo 197 del Código Penal, relativo a los delitos contra la intimidad, protege a las personas de la difusión no autorizada de imágenes o audios que invadan su privacidad, un ámbito en el que los deepfakes pueden causar un daño significativo. A su vez, la usurpación de funciones públicas, regulada en los artículos 402 y 403 del Código Penal, podría aplicarse si se manipulan vídeos o audios de figuras políticas para suplantar su identidad y difundir información falsa con fines malintencionados.

Por otro lado, la Ley de Propiedad Intelectual y el Reglamento General de Protección de Datos (RGPD) también ofrecen una protección adicional frente a los deepfakes. En primer lugar, la creación y distribución de contenido que utilice imágenes, vídeos o sonidos protegidos por derechos de autor puede constituir una infracción de la propiedad intelectual, si no se cuenta con la autorización correspondiente.

Además, la manipulación de la imagen o voz de una persona, que puede ser considerada un dato personal de acuerdo con el artículo 4.1 del RGPD, exige con base en esta normativa, junto con la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales (LOPDPGDD), el consentimiento explícito de la persona afectada para el uso de estos datos, especialmente si se trata de datos biométricos (4) como el rostro o la voz (artículo 9 RGPD), los cuales son utilizados en los deepfakes para crear representaciones falsas.

El incumplimiento de estas disposiciones puede ocasionar multas administrativas de hasta 20 millones de euros o del 4 % del volumen de negocio anual global en el caso de tratarse de una empresa (artículo 83.5 RGPD). Además, el artículo 82 del RGPD permite a las víctimas reclamar una indemnización por los daños y perjuicios sufridos por el incumplimiento del Reglamento, incluyendo daños morales.

Sumado a esto, las plataformas digitales, como redes sociales y proveedores de servicios de alojamiento de datos, tienen la obligación de colaborar en la lucha contra la difusión de deepfakes implementando sistemas de detección proactiva y ofreciendo mecanismos para eliminar contenido manipulado. En España, estas plataformas están reguladas por el Reglamento (UE) 2022/2065 (Reglamento de Servicios Digitales o DSA), que establece requisitos para los prestadores de servicios de intermediación.

Conforme al artículo 35.1.k) de la DSA, las plataformas deberán garantizar que el contenido generado o manipulado que simule personas, objetos, lugares o eventos existentes y pueda inducir a error se distinga claramente en sus interfaces. Además, deberán ofrecer una herramienta sencilla para que los usuarios puedan señalar dicha información. No obedecer a estas obligaciones puede resultar en sanciones de hasta el 6 % del volumen de negocios anual en todo el mundo del prestador de servicios en el ejercicio fiscal anterior, en casos graves (artículo 52.3 DSA).

El uso de inteligencia artificial para la creación de deepfakes ha impulsado el desarrollo de diversas herramientas tecnológicas diseñadas para detectar y mitigar los riesgos asociados a estos contenidos manipulados. Además, también han surgido iniciativas legislativas, entre las que se encuentra el Código de Prácticas sobre la Desinformación (2022) (5), aprobado por la Comisión Europea, que establece compromisos para que las plataformas identifiquen y actúen contra contenidos manipulativos generados por sistemas de IA, como los deepfakes.

Este código establece la obligación para las plataformas de desarrollar y aplicar políticas de transparencia y detección proactiva de contenidos manipulados, tal como se describe en el “Compromiso nº 15” del mismo. Además, las plataformas deben asegurarse de que los algoritmos que utilizan para detectar, moderar y sancionar contenidos sean confiables, respeten los derechos de los usuarios y no constituyan prácticas manipulativas ilegales.

Por otra parte, también a nivel europeo y recientemente, el Reglamento (UE) 2024/1689 sobre Inteligencia Artificial, adoptado en junio de 2024, establece un marco normativo integral para la regulación del uso y desarrollo de sistemas de inteligencia artificial en la Unión Europea. En este sentido, viene a introducir medidas específicas para la regulación de los deepfakes, obligando a los responsables del uso de IA a etiquetar claramente los contenidos manipulados, indicándoles su origen artificial.

Según el considerando 134 y el artículo 50 del Reglamento, los deepfakes deben ser identificados como contenido generado o manipulado artificialmente, salvo en los casos en que la ley permita excepciones (por ejemplo, en investigaciones penales o en contextos artísticos). La obligación de transparencia es clara, pero con excepciones que buscan proteger el uso legítimo de tecnologías en ámbitos creativos o culturales.

Con todo, a pesar de la existencia de estas pinceladas y analogías en la normativa, todavía existen vacíos legales que dificultan el abordaje efectivo de los deepfakes en España y la UE, mientras que, en otros países, como Estados Unidos o China, ya se han presentado proyectos de ley para prohibir su creación y distribución.

En EEUU, la “No Artificial Intelligence Fake Replicas And Unauthorized Duplications” (“No AI FRAUD Act”) (6) y el “DEEPFAKES Accountability Act” (7) buscan proteger la seguridad nacional contra las amenazas planteadas por la tecnología deepfake y proporcionar recursos legales a las víctimas de deepfakes perjudiciales, mientras que, en China, se publicaron, en enero de 2023, las Disposiciones sobre la Administración de la Síntesis Profunda de los Servicios de Información basados en Internet (las Disposiciones de Síntesis Profunda), que regula la aplicación de deepfakes para prestar servicios de información en Internet (8).

Concretamente, exige la identificación clara de los contenidos generados artificialmente y prohíbe su uso para actividades ilegales o difusión de información falsa, además de obligar a los proveedores a habilitar canales accesibles para quejas y gestionar rápidamente las reclamaciones. Asimismo, requiere obtener el consentimiento explícito de las personas cuando se utilicen o editen sus datos biométricos, como rostros o voces.

Es esencial desarrollar una normativa específica que, al margen de sancionar el uso ilícito de los deepfakes, fomente la prevención a través de mecanismos de detección y campañas de concienciación pública. Asimismo, es crucial que las plataformas digitales asuman una responsabilidad más activa en la identificación y eliminación de contenidos manipulados que no cumplan las exigencias legales, ya que, en un entorno donde estos contenidos pueden vulnerar derechos fundamentales y dar la apariencia de veracidad a noticias inciertas, es imprescindible concienciar sobre la necesidad de verificar la información antes de darla por válida.

Además, la alfabetización digital debe incluir la capacitación en el reconocimiento de herramientas de manipulación y en la comprensión de las implicaciones legales derivadas de su uso indebido. De este modo, no solo se prevendría la difusión de contenidos falsos, sino que se reforzaría una cultura de responsabilidad y respeto a los derechos fundamentales, imprescindible para garantizar el buen uso de estas tecnologías en un marco de legalidad y ética.

 

Enlaces:

(1) https://www.pewresearch.org/short-reads/2024/09/19/concern-over-the-impact-of-ai-on-2024-presidential-campaign/

(2) https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf

(3) https://www.elconfidencial.com/tecnologia/novaceno/2022-03-17/hackers-rusos-difunden-un-video-falso-de-zelensky-ordenando-la-rendicion_3393225/

(4) Art.3.14) «datos biométricos»: datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física que permitan o confirmen la identificación única de dicha persona, como imágenes faciales o datos dactiloscópicos;

(5) https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation

(6) https://www.congress.gov/bill/118th-congress/house-bill/6943/text/ih

(7) https://www.govinfo.gov/content/pkg/BILLS-118hr5586ih/pdf/BILLS-118hr5586ih.pdf

(8) https://www.chinalawtranslate.com/deep-synthesis/

 

LA CREACIÓN MUSICAL POR INTELIGENCIA ARTIFICIAL: REFLEXIONES ACERCA DE SUS IMPLICACIONES LEGALES Y ÉTICAS, A LA LUZ DE ALGUNOS CASOS RECIENTES.

(El autor es estudiante de la XVIII edición del Máster en Propiedad Intelectual, Industrial y Nuevas Tecnologías UAM)

La creación musical por inteligencia artificial (IA) ha emergido como un fenómeno fascinante en el ámbito de la música contemporánea, originando un amplio debate en cuanto a sus implicaciones legales, éticas y culturales. A medida que la tecnología avanza, las posibilidades de generar música mediante algoritmos y programas de IA se vuelven cada vez más accesibles y sofisticadas, desafiando las nociones tradicionales de autoría, originalidad y creatividad en el proceso musical.

En el contexto europeo, la legislación de la Unión Europea (UE) clásica o tradicional proporciona el marco legal para abordar las cuestiones relacionadas con la propiedad intelectual en el mundo digital. En particular, la Directiva 2001/29/CE, sobre la armonización de determinados aspectos de los derechos de autor y derechos afines en la sociedad de la información, conocida como la "Directiva InfoSoc", establece los principios fundamentales de protección de los derechos de autor en el ámbito digital.

A estos efectos, entre otros extremos, reconoce –en beneficio de los autores y titulares de derechos conexos– los derechos exclusivos de reproducción, comunicación al público (incluida la puesta a disposición interactiva) y distribución (1).  Sin embargo, dado que esta directiva fue adoptada hace más de 20 años (puntualmente en el 2001) lógicamente no aborda temas relacionados a la IA.

Por su parte la Directiva 2019/790 sobre los Derechos de Autor en el Mercado Único Digital, que fue adoptada con el objetivo de modernizar las normas de derecho de autor en la Unión Europea para adaptarlas a la era digital y abordar los desafíos planteados por las nuevas tecnologías, tampoco resuelve la cuestión tan controversial de la música creada por estos sistemas autónomos sin intervención humana. 

A nivel nacional, la Ley de Propiedad Intelectual española (LPI) establece los derechos y obligaciones relacionados con la creación y explotación de obras en general, incluidas las musicales. Su artículo 2, establece que la propiedad intelectual, está integrada no sólo por derechos de carácter “patrimonial”, sino también por derechos de carácter “personal”.

Por su parte, el artículo 5 menciona que se considera autor a la “persona natural” que crea alguna obra.  Por lo tanto, esta legislación se basa en la premisa de que la creación artística es obra de un ser humano, lo que plantea interrogantes sobre cómo aplicar estas disposiciones legales a la música generada por algoritmos de IA. ¿Puede considerarse que una obra musical generada por IA es original y protegida por derechos de autor bajo la ley actual? ¿Quién debería ser considerado autor de dicha obra: el programador que diseñó el algoritmo, la persona que entrenó el algoritmo, el propietario de la IA o el propio sistema de IA?

La jurisprudencia existente sobre este tema es limitada, pero hay casos que han sentado precedentes importantes en el ámbito de la propiedad intelectual y la creatividad digital. Por citar algunos podríamos mencionar al caso, Burrow-Giles Lithographic Co. v. Sarony, en la que se habla del autor como persona humana creadora, origen de la obra, y del derecho de autor como un derecho exclusivo del hombre sobre la producción de su intelecto o genialidad. En el pleito Mazer v. Stein, el Tribunal Supremo habla de la originalidad de una obra como la expresión tangible de sus ideas por un ser humano.

En el asunto Goldstein v. California, el Tribunal Supremo norteamericano, de nuevo citando el caso Burrow-Giles, concluye que el término autor en el sentido constitucional, es la persona de la que emana la obra, el origen mismo de la obra (2). Asimismo, pero dentro del ámbito de las invenciones, es decir de las patentes, en el caso “DABUS", el solicitante Steven Thaler consignaba en la documentación presentada que el sistema de IA “DABUS”, sea considerado el inventor de una serie de inventos, incluyendo un dispositivo de iluminación y un contenedor de alimentos, justificando el interés legítimo de Thaler como propietario de la máquina en la que se ejecuta DABUS.

Tanto la Oficina de Patentes y Marcas de Estados Unidos como la Oficina Europea de Patentes rechazaron estas solicitudes, argumentando que solo los seres humanos pueden ser reconocidos como inventores bajo la legislación vigente (3). Aunque este caso se refiere a patentes en lugar de derechos de autor, ilustra la complejidad de atribuir autoría y derechos de propiedad en el contexto de la creación por IA.

Desde una perspectiva ética, nacen desafíos significativos en relación con la autonomía, la responsabilidad y la originalidad en la creación musical por IA. Como decíamos, surge la importante cuestión de determinar quién debería ser considerado autor de una obra musical generada por algoritmos de IA, en particular, si esta condición ha de atribuirse al programador que diseñó el algoritmo, al propietario de la IA, o al propio sistema de IA.

En este sentido, la existencia de un reciente y actual caso, conocido como Bad Bunny v. Flow GPT, ha generado amplio debate en el ámbito de la música y la inteligencia artificial (4). Esta batalla legal se desencadenó a finales del 2023, a raíz del lanzamiento y rápida aceptación por los internautas de la canción "NostalgIA" por parte del productor chileno MauryCeo (5).

Dicho lanzamiento fue efectuado a través de su artista virtual conocido como “Flow GPT”, utilizando voces generadas por inteligencia artificial de Bad Bunny, Daddy Yankee y Justin Bieber, y se volvió viral en redes sociales como TikTok, desencadenando un intenso debate sobre el derecho de autor. A pesar de acumular millones de reproducciones, recibir el apoyo de diversas estrellas del espectáculo, y de que el productor afirmó haber cedido los derechos a Bad Bunny, para que pudiera interpretarla en vivo, el puertorriqueño se negó, reaccionó negativamente y solicitó que la canción fuera retirada de las plataformas digitales.

Por lo tanto, aun a la fecha y sin leyes claras y consolidadas que aborden la materia, la situación legal es confusa y genera incertidumbre sobre cómo abordar este nuevo fenómeno. Otros artistas, como Drake y The Weeknd, también han expresado su descontento con estas herramientas tecnológicas, mientras que algunos, como Grimes, han visto oportunidades en ellas lanzando su propio software con su voz, denominado Elf.Tech (6).

 

(7)

A pesar de las recientes novedades legislativas, es importante aclarar que la normativa europea, no termina de resolver esta cuestión. El pasado 13 de marzo, de 2024, el Parlamento Europeo aprobó, la propuesta de reglamento por la que se establecen normas armonizadas en materia de Inteligencia Artificial (la mal llamada “Ley de IA”), que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación, convirtiéndose así en el primer marco jurídico integral sobre IA a nivel mundial (8).

Esta novel legislación incluye entre sus objetivos principales, garantizar la seguridad y los derechos de los ciudadanos europeos, así como fomentar la inversión y la innovación en el ámbito de la IA en Europa. La ley, basada en criterios de riesgo, establece requisitos y obligaciones para los sistemas de IA de alto riesgo, mientras prohíbe aquellos con riesgos considerados inaceptables, como la manipulación cognitiva o el rastreo indiscriminado de imágenes faciales. Además, se enfatiza en la protección de los derechos fundamentales mediante la evaluación del impacto de los sistemas de IA en estos derechos y la obligación de transparencia en los modelos funcionales (9).

Como complemento, se ha creado la Oficina de la IA en la Comisión Europea para supervisar el cumplimiento de la regulación y fomentar las normas y prácticas de ensayo (10). Siendo estos nuevos instrumentos legales (Ley IA y Oficina de IA) tan recientes, resta estar atentos al impacto e injerencia que puedan tener en los próximos meses, en lo relativo a la creación artística asistida por algoritmos. 

Además de los desafíos legales y éticos, la creación musical por inteligencia artificial también formula interrogantes en cuanto a la calidad artística y la recepción por parte del público. Aunque la IA puede generar música de manera eficiente y en grandes cantidades, algunos críticos argumentan que carece del contexto emocional y la profundidad creativa que a menudo caracterizan las obras musicales humanas.

Esto plantea preguntas sobre la autenticidad y la conexión emocional que los oyentes pueden experimentar con la música creada por IA, así como sobre el impacto en la industria musical y la comunidad creativa en su conjunto.

La creciente colaboración entre músicos y desarrolladores de IA está dando lugar a nuevas formas de experimentación creativa y de exploración de los límites del arte sonoro. Algunos artistas están adoptando activamente la IA como una herramienta complementaria en su proceso creativo, utilizando algoritmos para generar ideas musicales innovadoras o para expandir sus horizontes estilísticos.

Esta convergencia entre la creatividad humana y la capacidad computacional de la IA promete abrir nuevas vías de expresión artística y de descubrimiento musical, aunque también plantea preguntas sobre la autoría y la influencia en la identidad artística de los músicos, como se puntualizó anteriormente.

En respuesta a estos desafíos, es crucial que los legisladores y los profesionales del derecho sigan trabajando en colaboración con expertos en tecnología y ética para el continuo desarrollo de un marco legal y ético claro y equilibrado, que promueva la innovación y proteja los derechos de todas las partes involucradas. Esto podría incluir la creación de nuevas categorías de derechos de autor para obras generadas por IA, la implementación de sistemas de atribución de autoría digitalmente verificables y la adopción de estándares éticos y de transparencia en el desarrollo y uso de la IA en el ámbito creativo.

En conclusión, la creación musical por inteligencia artificial plantea desafíos complejos y multifacéticos que requieren una respuesta legal y ética cuidadosamente considerada. Es fundamental establecer normativas claras que definan la atribución de derechos de autor y responsabilidades legales en la creación musical por IA, así como mecanismos efectivos para resolver disputas y proteger los intereses de todas las partes involucradas.

A medida que la tecnología continúa avanzando, es fundamental que los sistemas jurídicos y éticos evolucionen para abordar estos desafíos de manera efectiva y garantizar un equilibrio adecuado entre la innovación tecnológica, de un lado, y la protección de los derechos de autor y la creatividad humana, de otro.

 

  1. artículos 2, 3 y 4, respectivamente, de la Directiva 2001/29
  2. https://blog.cipi.es/blog2-intelectual/item/224-la-historia-de-a-recent-entrance-to-paradise-dabus-y-otros-amigos-unas-reflexiones-sobre-como-se-han-venido-tratando-las-solicitudes-de-steven-thaler-de-registro-de-obras-y-de-invenciones-creadas-por-algoritmos
  3. https://www.wipo.int/wipo_magazine/es/2021/03/article_0006.html
  4. https://es.wikipedia.org/wiki/NostalgIA_(canci%C3%B3n_de_FlowGPT)
  5. https://www.youtube.com/watch?v=yRswYP93184
  6. https://es.wikipedia.org/wiki/Elf._tech
  7. https://spoiler.bolavip.com/musica/letra-de-nostalgia-la-cancion-de-bad-bunny-justin-bieber-y-daddy-yankee-creada-con-ia-20231107-SPO-48046.html // https://www.tvnotas.com.mx/espectaculos-mexico/inteligencia-artificial-vs-bad-bunny-flowgpt-le-responde-a-bad-bunny-te-noto-algo-enojado 
  8. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:52021PC0206 
  9. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai 
  10. https://digital-strategy.ec.europa.eu/es/policies/ai-office#:~:text=La%20Oficina%20de%20IA%20se%20cre%C3%B3%20en%20el,garantizar%20que%20la%20IA%20sea%20segura%20y%20fiable.