La ley de gobernanza de IA de España obligará a etiquetar todos los contenidos creados con IA
El uso de herramientas impulsadas por Inteligencia Artificial (IA) para generar y modificar contenido como fotografías, audio y video está a la orden del día y, en el marco del nuevo anteproyecto de ley de gobernanza de la IA aprobado por el Gobierno de España, que obliga a etiquetar cualquier contenido generado mediante esta tecnología, estas son algunas de las medidas de identificación que utilizan las empresas actualmente.
Con la llegada de herramientas de IA capaces de generar todo tipo de imágenes y videos de forma sencilla, como es el caso de Imagine de Meta, Firefly de Adobe o Dall-E de OpenAI, se hace necesario ofrecer a los usuarios un contexto informativo sobre el contenido que ven en las redes sociales y en internet, para evitar la divulgación de información falsa.
Teniendo esto en cuenta, el Consejo de Ministros aprobó este martes un anteproyecto de ley de gobernanza de la Inteligencia Artificial, una norma que adapta el Reglamento europeo de IA, actualmente en vigor, a la legislación nacional, de cara a poner orden en el uso de esta tecnología y proteger los derechos digitales de los usuarios frente a “un uso negativo”.
En este sentido, el anteproyecto de ley identifica prácticas prohibidas y sistemas de alto riesgo relacionados con la IA. Así, además de prohibir el uso de esta tecnología en técnicas subliminales para manipular decisiones o para explotar vulnerabilidades relacionadas con la edad o la situación socioeconómica de los usuarios, uno de los factores que contempla es la obligatoriedad de etiquetar e identificar correctamente cualquier imagen, audio o vídeo generado o manipulado mediante herramientas de IA.
Es decir, esta norma impone que cualquier contenido publicado en Internet o compartido con otros usuarios que esté creado o modificado utilizando herramientas de IA debe estar debidamente etiquetado para informar abiertamente sobre el uso de esta tecnología al resto de personas y, así, evitar posibles engaños o malentendidos de cara a los usuarios.
Esto incluye contenido como, por ejemplo, fotografías editadas para eliminar objetos de fondo, imágenes realistas generadas por IA, textos escritos con esta tecnología o vídeos falsos con imágenes y audio que suplantan la identidad de personas reales, como es el caso de los ‘deepfakes’, entre otro tipo de contenido relacionado.
Esta práctica se podrá sancionar desde el 2 de agosto de este año, mediante multas u otras medidas adicionales, como requerir su adaptación al sistema o, en el caso de empresas, impedir que se comercialicen los productos relacionados.
No obstante, por el momento, el anteproyecto de ley de gobernanza de la IA, no especifica cuáles serán las medidas necesarias para considerar que el contenido generado con IA ha sido debidamente etiquetado en el marco de esta norma y, según el Ministro para la Transformación Digital y de la Función Pública, Óscar López, será la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) la que establecerá estas pautas cuando se desarrolle la normativa.
Medidas actuales
En este marco, son varias las tecnológicas que ya disponen de medidas de identificación para este tipo de contenido en Internet, así como herramientas para etiquetar el contenido generado mediante IA de los usuarios.
Una de las herramientas a las que recurren la mayoría de las compañías es el protocolo de Internet Universal que ofrece la Coalición para la Procedencia y Autenticidad del contenido (C2PA), del que ya forman parte OpenAI, Microsoft, Intel, Adobe, Google, Meta, Amazon, Sony, Truepic y TikTok, entre otras compañías.
En concreto, se trata de un proyecto de la Joint Development Foundation creado para frenar la desinformación en línea y el fraude de contenido. Así, permite a editores, empresas y creadores de contenido incorporar metadatos en sus materiales visuales y de audio para verificar su origen y la información relacionada. Su código es de libre acceso y se asegura mediante la criptografía.
De esta forma, por ejemplo en el caso de Amazon, todas las imágenes creadas con sus modelos Titan Image Generator v1 y v2 agregan automáticamente las credenciales de contenido C2PA, de manera que se muestran como generadas por IA de forma instantánea ante los sistemas de identificación compatibles con este protocolo universal.
Lo mismo ocurre en la plataforma de ByteDance, TikTok, que es capaz de etiquetar automáticamente el contenido generado por IA desde plataformas de terceros, mediante el protocolo C2PA. Igualmente, TikTok también dispone de herramientas con las que permite que sean los propios usuarios los que identifiquen este contenido a través de etiquetas en la red social.
Siguiendo esta línea, Meta es otra de las compañías tecnológicas que utiliza varios métodos para señalizar el contenido generado por IA ya que, según detalla en su web, mantiene como obligación identificar y etiquetar el contenido creado con herramientas de IA en cualquiera de sus productos, ya sea Facebook, Instagram o Threads, entre otros.
Así, además del protocolo C2PA, los sistemas de Meta disponen de la capacidad de identificar diversas señales incluidas en contenidos generados con IA para mostrar automáticamente etiquetas que lo señalicen. Por ejemplo, ha estado trabajando con empresas del sector para desarrollar normas comunes que permitan identificar los contenidos a través de foros como el Partnership on AI (PAI).
A la hora de identificar contenido, Meta lo etiqueta con una señal visible de ‘Información sobre IA’ en caso de que se haya creado íntegramente con esta tecnología. Por su parte, aquel contenido que únicamente haya sido modificado, lo especifica en la opción de ‘Información sobre IA’ incluida en el menú de cada publicación.
En cuanto al contenido creado con su herramienta Meta AI, la compañía introduce igualmente marcas de agua invisibles, que se basan en metadatos incrustados dentro de los archivos de la imagen en cuestión. Al igual que en TikTok, los usuarios también pueden etiquetar por su cuenta el contenido generado con IA en sus plataformas.
Google, por su parte, también dispone de herramientas como SynthID, una tecnología que agrega una marca de agua digital directamente en los píxeles de una imagen. De esta forma, es una marca imperceptible para el ojo humano pero, a través de un programa informático, es detectable para su identificación incluso después de modificaciones.
Esta opción es compatible con contenido tanto de texto como de vídeo, incluido, aquel generado mediante su modelo propio Veo. Además, puede ser utilizado por cualquier empresa ya que se trata de una herramienta gratuita de código abierto.
La compañía liderada por Sam Altman, OpenAI, dispone igualmente de métodos de marca de agua resistentes a la manipulación, así como clasificadores de detección, que son herramientas de IA que evalúan la probabilidad de que el contenido se origine a partir de modelos generativos.
Con todo ello, el anteproyecto de ley aprobado por el Consejo de Ministros se tramitará por la vía de urgencia y seguirá los trámites necesarios antes de volver al Consejo de Ministros para su aprobación definitiva como proyecto de ley y, tras ello, su envío a las Cortes para su aprobación.