DEEPFAKES: EL NUEVO RETO LEGAL Y ÉTICO EN LA ERA DE LA DESINFORMACIÓN.
(La autora es exalumna de la XVIII Edición del Máster en Propiedad Intelectual, Industrial y NN.TT.)
Los deepfakes son una de las mayores amenazas que enfrenta la sociedad contemporánea debido a su capacidad para crear contenidos visuales y sonoros que parecen absolutamente reales, pero que, en realidad, son completamente falsos. Específicamente, según INCIBE (Instituto Nacional de Ciberseguridad), los deepfakes son vídeos manipulados para hacer creer a los usuarios que ven a una determinada persona, tanto si es anónima como si es un personaje público, realizando declaraciones o acciones que nunca ocurrieron.
Esta tecnología utiliza algoritmos de inteligencia artificial, específicamente el aprendizaje profundo o deep learning, para alterar o crear imágenes, audios y vídeos que manipulan la apariencia o las palabras de personas, a menudo sin que ellas lo sepan o lo consientan. De hecho, la palabra deepfake es un término combinado de “deep learning” y “fake”.
Esta tecnología emergente vio su origen en el mundo de la investigación con aplicaciones prácticas en el mundo del cine como una alternativa a los procesos de construcciones digitales, que tienden a generar altos costos. Quizá el ejemplo más famoso de la implementación de esta tecnología en el cine es la última película de la saga Star Wars, en la cual la actriz Carrie Fisher, conocida por su personaje de la princesa Leia, había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para las escenas que faltaba grabar.
No obstante, el potencial de los deepfakes para ser utilizados con fines maliciosos plantea serias preocupaciones éticas, legales y políticas, particularmente en el contexto de la desinformación y la manipulación pública. En un mundo donde las redes sociales juegan un papel clave en la propagación de información, los deepfakes han emergido como una herramienta poderosa de desinformación, capaz de influir en la percepción pública de una manera antes nunca vista. En este sentido, la preocupación por el uso indebido de esta tecnología se ha incrementado en diversas esferas, especialmente en el ámbito electoral.
Un claro ejemplo de esta amenaza fue el uso de deepfakes durante las elecciones presidenciales en Estados Unidos, donde se temió que los contenidos manipulados pudieran influir en los resultados o alterar la percepción pública de los candidatos. Según datos de Pew Research Center (1), un 57% de los estadounidenses se sienten extremadamente preocupados por el uso de inteligencia artificial para manipular la opinión pública, especialmente durante los comicios.
Este fenómeno ha trascendido las fronteras de los Estados Unidos y se ha convertido en un reto global. Según el AI Index 2024 (2), un informe elaborado por la Universidad de Stanford, los deepfakes ya están afectando a los procesos electorales en distintas partes del mundo, incrementando el riesgo de manipulación de la opinión pública y el debilitamiento de la democracia.
La facilidad con la que los deepfakes pueden ser creados y distribuidos es un factor clave que amplifica su peligrosidad. Cualquier persona con acceso a herramientas y programas de inteligencia artificial puede generar un vídeo manipulando la imagen de un individuo o una situación con una calidad sorprendente. Estos vídeos no solo son difíciles de detectar como falsos, sino que su viralización en plataformas de internet hace aún más complicado controlarlos.
Un caso concreto de cómo pueden alterar la percepción pública y generar confusión fue el vídeo, en 2022, en el que el presidente de Ucrania, Volodymyr Zelensky, aparecía supuestamente anunciando su rendición a Rusia en el contexto de la guerra (3). Este vídeo manipulado, aunque rápidamente identificado como una falsificación, generó una gran alarma entre la población, subrayando los riesgos que los deepfakes suponen en situaciones de alta tensión política y bélica.
Este tipo de manipulaciones masivas ha contribuido a la creación de lo que algunos expertos denominan “infopocalipsis”: una crisis de confianza en la información. La desinformación es cada vez más difícil de distinguir de la verdad, lo que provoca un clima de incertidumbre en la sociedad. La propagación de deepfakes y otros tipos de contenido manipulado ha hecho que las personas sean más escépticas ante las noticias, lo que plantea un desafío sin precedentes para los periodistas y las plataformas de redes sociales.
En este sentido, los medios de comunicación y los periodistas tienen la responsabilidad de verificar y autenticar la información, utilizando herramientas tecnológicas para detectar deepfakes y garantizar que la información que se difunde sea fidedigna. Sin embargo, la velocidad con la que los contenidos circulan en internet y las técnicas de manipulación utilizadas hacen que sea extremadamente difícil para los medios frenar la desinformación en tiempo real.
Debido a la rapidez del desarrollo de esta tecnología, se ha tenido que estudiar qué leyes regulan de manera más analógica estos problemas, esperando a que se aprueben nuevas normas que ayuden a ajustar estas recientes amenazas.
En cuanto a la normativa española, los deepfakes se enmarcan dentro de un contexto legal que protege varios derechos fundamentales. La Constitución Española establece, en su artículo 18, el derecho al honor, la intimidad personal y familiar, y la propia imagen, derechos específicamente protegidos en Ley Orgánica 1/1982, lo que implica que la creación y distribución de contenido manipulado que afecte a estas esferas podría estar vulnerando estos derechos.
En este sentido, el Código Penal español también prevé diversos delitos que podrían aplicarse en situaciones de deepfakes. Los delitos contra el honor, por ejemplo, podrían ser aplicados en casos de calumnias y difamaciones derivadas de vídeos manipulados que dañen la reputación de una persona.
Además, el artículo 197 del Código Penal, relativo a los delitos contra la intimidad, protege a las personas de la difusión no autorizada de imágenes o audios que invadan su privacidad, un ámbito en el que los deepfakes pueden causar un daño significativo. A su vez, la usurpación de funciones públicas, regulada en los artículos 402 y 403 del Código Penal, podría aplicarse si se manipulan vídeos o audios de figuras políticas para suplantar su identidad y difundir información falsa con fines malintencionados.
Por otro lado, la Ley de Propiedad Intelectual y el Reglamento General de Protección de Datos (RGPD) también ofrecen una protección adicional frente a los deepfakes. En primer lugar, la creación y distribución de contenido que utilice imágenes, vídeos o sonidos protegidos por derechos de autor puede constituir una infracción de la propiedad intelectual, si no se cuenta con la autorización correspondiente.
Además, la manipulación de la imagen o voz de una persona, que puede ser considerada un dato personal de acuerdo con el artículo 4.1 del RGPD, exige con base en esta normativa, junto con la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales (LOPDPGDD), el consentimiento explícito de la persona afectada para el uso de estos datos, especialmente si se trata de datos biométricos (4) como el rostro o la voz (artículo 9 RGPD), los cuales son utilizados en los deepfakes para crear representaciones falsas.
El incumplimiento de estas disposiciones puede ocasionar multas administrativas de hasta 20 millones de euros o del 4 % del volumen de negocio anual global en el caso de tratarse de una empresa (artículo 83.5 RGPD). Además, el artículo 82 del RGPD permite a las víctimas reclamar una indemnización por los daños y perjuicios sufridos por el incumplimiento del Reglamento, incluyendo daños morales.
Sumado a esto, las plataformas digitales, como redes sociales y proveedores de servicios de alojamiento de datos, tienen la obligación de colaborar en la lucha contra la difusión de deepfakes implementando sistemas de detección proactiva y ofreciendo mecanismos para eliminar contenido manipulado. En España, estas plataformas están reguladas por el Reglamento (UE) 2022/2065 (Reglamento de Servicios Digitales o DSA), que establece requisitos para los prestadores de servicios de intermediación.
Conforme al artículo 35.1.k) de la DSA, las plataformas deberán garantizar que el contenido generado o manipulado que simule personas, objetos, lugares o eventos existentes y pueda inducir a error se distinga claramente en sus interfaces. Además, deberán ofrecer una herramienta sencilla para que los usuarios puedan señalar dicha información. No obedecer a estas obligaciones puede resultar en sanciones de hasta el 6 % del volumen de negocios anual en todo el mundo del prestador de servicios en el ejercicio fiscal anterior, en casos graves (artículo 52.3 DSA).
El uso de inteligencia artificial para la creación de deepfakes ha impulsado el desarrollo de diversas herramientas tecnológicas diseñadas para detectar y mitigar los riesgos asociados a estos contenidos manipulados. Además, también han surgido iniciativas legislativas, entre las que se encuentra el Código de Prácticas sobre la Desinformación (2022) (5), aprobado por la Comisión Europea, que establece compromisos para que las plataformas identifiquen y actúen contra contenidos manipulativos generados por sistemas de IA, como los deepfakes.
Este código establece la obligación para las plataformas de desarrollar y aplicar políticas de transparencia y detección proactiva de contenidos manipulados, tal como se describe en el “Compromiso nº 15” del mismo. Además, las plataformas deben asegurarse de que los algoritmos que utilizan para detectar, moderar y sancionar contenidos sean confiables, respeten los derechos de los usuarios y no constituyan prácticas manipulativas ilegales.
Por otra parte, también a nivel europeo y recientemente, el Reglamento (UE) 2024/1689 sobre Inteligencia Artificial, adoptado en junio de 2024, establece un marco normativo integral para la regulación del uso y desarrollo de sistemas de inteligencia artificial en la Unión Europea. En este sentido, viene a introducir medidas específicas para la regulación de los deepfakes, obligando a los responsables del uso de IA a etiquetar claramente los contenidos manipulados, indicándoles su origen artificial.
Según el considerando 134 y el artículo 50 del Reglamento, los deepfakes deben ser identificados como contenido generado o manipulado artificialmente, salvo en los casos en que la ley permita excepciones (por ejemplo, en investigaciones penales o en contextos artísticos). La obligación de transparencia es clara, pero con excepciones que buscan proteger el uso legítimo de tecnologías en ámbitos creativos o culturales.
Con todo, a pesar de la existencia de estas pinceladas y analogías en la normativa, todavía existen vacíos legales que dificultan el abordaje efectivo de los deepfakes en España y la UE, mientras que, en otros países, como Estados Unidos o China, ya se han presentado proyectos de ley para prohibir su creación y distribución.
En EEUU, la “No Artificial Intelligence Fake Replicas And Unauthorized Duplications” (“No AI FRAUD Act”) (6) y el “DEEPFAKES Accountability Act” (7) buscan proteger la seguridad nacional contra las amenazas planteadas por la tecnología deepfake y proporcionar recursos legales a las víctimas de deepfakes perjudiciales, mientras que, en China, se publicaron, en enero de 2023, las Disposiciones sobre la Administración de la Síntesis Profunda de los Servicios de Información basados en Internet (las Disposiciones de Síntesis Profunda), que regula la aplicación de deepfakes para prestar servicios de información en Internet (8).
Concretamente, exige la identificación clara de los contenidos generados artificialmente y prohíbe su uso para actividades ilegales o difusión de información falsa, además de obligar a los proveedores a habilitar canales accesibles para quejas y gestionar rápidamente las reclamaciones. Asimismo, requiere obtener el consentimiento explícito de las personas cuando se utilicen o editen sus datos biométricos, como rostros o voces.
Es esencial desarrollar una normativa específica que, al margen de sancionar el uso ilícito de los deepfakes, fomente la prevención a través de mecanismos de detección y campañas de concienciación pública. Asimismo, es crucial que las plataformas digitales asuman una responsabilidad más activa en la identificación y eliminación de contenidos manipulados que no cumplan las exigencias legales, ya que, en un entorno donde estos contenidos pueden vulnerar derechos fundamentales y dar la apariencia de veracidad a noticias inciertas, es imprescindible concienciar sobre la necesidad de verificar la información antes de darla por válida.
Además, la alfabetización digital debe incluir la capacitación en el reconocimiento de herramientas de manipulación y en la comprensión de las implicaciones legales derivadas de su uso indebido. De este modo, no solo se prevendría la difusión de contenidos falsos, sino que se reforzaría una cultura de responsabilidad y respeto a los derechos fundamentales, imprescindible para garantizar el buen uso de estas tecnologías en un marco de legalidad y ética.
Enlaces:
(2) https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf
(4) Art.3.14) «datos biométricos»: datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física que permitan o confirmen la identificación única de dicha persona, como imágenes faciales o datos dactiloscópicos;
(5) https://digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation
(6) https://www.congress.gov/bill/118th-congress/house-bill/6943/text/ih
(7) https://www.govinfo.gov/content/pkg/BILLS-118hr5586ih/pdf/BILLS-118hr5586ih.pdf
(8) https://www.chinalawtranslate.com/deep-synthesis/
- Publicado en Blog nuevas tecnologías