Obligaciones del Reglamento de inteligencia artificial. Nuevas exigencias para proveedores a partir del 2 de agosto de 2025

10.07.2025

A partir del próximo 2 de agosto serán exigibles los requisitos y obligaciones previstos en el Reglamento para modelos/sistemas de IA de propósito general, y a los distintos sujetos relacionados con los mismos, incluyendo desarrolladores, distribuidores o entidades usuarias.

Introducción

El Reglamento (UE) 2024/1689 (conocido como Reglamento de Inteligencia Artificial, Reglamento IA de la UE o Ley de IA) fue publicado el 12 de julio de 2024 en el Diario Oficial de la UE. Entró en vigor el 1 de agosto de 2024, pero sus disposiciones se aplican de forma escalonada para permitir la adaptación de los agentes afectados. En particular, a partir del 2 de agosto de 2025 entran en vigor varias obligaciones importantes establecidas en el Reglamento [http://boe.esboe.es].

A continuación se exponen todas las exigencias y obligaciones del Reglamento de IA que serán exigibles desde el 2 de agosto de 2025, diferenciando dichas obligaciones según el tipo de sistemas de IA y según el sujeto obligado (desarrollador, proveedor, importador, distribuidor, responsable del despliegue, etc.).

Cabe señalar que el Reglamento clasifica los sistemas de IA por niveles de riesgo, asignando diferentes requisitos a cada categoría. Las categorías principales son: prácticas de IA prohibidas (riesgo inaceptable), sistemas de IA de alto riesgo, sistemas de IA de riesgo limitado (con obligaciones de transparencia) y otros sistemas de mínimo riesgo.

Adicionalmente, el Reglamento introduce obligaciones específicas para los modelos de IA de uso general, incluidos los modelos fundacionales o de propósito general (por ejemplo, grandes modelos de lenguaje), con especial atención a aquellos considerados de “riesgo sistémico” por su escala o impacto.

Conviene recordar que para el Reglamento IA, se considera «proveedor» a la persona física o jurídica, autoridad pública, órgano u organismo que desarrolle un sistema de IA o un modelo de IA de uso general, o para el que se desarrolle un sistema de IA o un modelo de IA de uso general y lo introduzca en el mercado o ponga en servicio el sistema de IA con su propio nombre o marca, previo pago o gratuitamente.

En lo que respecta al calendario de aplicación, desde el 2 de febrero de 2025 ya son aplicables las disposiciones generales y la prohibición de ciertas prácticas de IA consideradas inaceptables. A partir del 2 de agosto de 2025 son exigibles nuevas obligaciones, entre ellas las relativas a modelos de IA de uso general (Capítulo V) y se activa el régimen sancionador del Reglamento. No obstante, significar que el Anteproyecto de Ley para el buen uso y la gobernanza de la inteligencia artificial publicado en marzo de 2025 en España, que desarrolla el régimen de infracciones y sanciones en nuestro país, no ha sido aprobado. Las obligaciones detalladas para los sistemas de IA de alto riesgo (Capítulo III) serán de aplicación más adelante (en general, desde el 2 de agosto de 2027), si bien conviene conocerlas para la preparación anticipada. En las secciones siguientes se analizan por separado las obligaciones aplicables a cada tipo de sistema de IA y se identifica qué sujetos (proveedores, desarrolladores, importadores, distribuidores, usuarios o responsables del despliegue, etc.) deben cumplirlas. Al final del informe se incluye una tabla resumen que sintetiza todos estos requisitos y obligaciones por categoría de IA y por tipo de agente involucrado.

Prácticas de IA prohibidas (Riesgo inadmisible)

El Reglamento prohíbe absolutamente una serie de prácticas de IA por considerarlas de riesgo inaceptable para los derechos fundamentales, la seguridad o la confianza pública. Estas prohibiciones son de aplicación directa desde el 2 de febrero de 2025 y vinculantes para cualquier actor (desarrolladores, proveedores, usuarios, autoridades) que pudiera desarrollar, comercializar o emplear tales sistemas. En concreto, el artículo 5.1 del Reglamento enumera las siguientes prácticas prohibidas:

  • Manipulación subliminal o engañosa: Está prohibido introducir en el mercado, desplegar o utilizar sistemas de IA que empleen técnicas subliminales (por debajo del umbral de conciencia) o métodos deliberadamente manipuladores/engañosos destinados a alterar sustancialmente el comportamiento de una persona o grupo, mermando su capacidad de decisión y provocando potencialmente un perjuicio considerable. Por ejemplo, se prohíbe el uso de IA para influir inconscientemente en consumidores o votantes de forma dañina.
  • Explotación de vulnerabilidades de grupos vulnerables: Prohibidos los sistemas de IA que exploten vulnerabilidades derivadas de la edad, discapacidad, situación económica o social de personas o grupos, para influir significativamente en su comportamiento de modo que pueda causarles perjuicios considerables (por ejemplo, manipulación de menores, ancianos o colectivos desfavorecidos mediante IA).
  • “Puntuación social” por autoridades públicas: Queda prohibido evaluar o clasificar a personas físicas o grupos durante un período por su comportamiento social o características personales (obtenidas o inferidas), mediante sistemas de scoring social automatizado, cuando ello pueda producir un trato perjudicial injustificado o desproporcionado en contextos distintos a los evaluados. En esencia, se veta el social credit scoring gubernamental al estilo de puntuaciones ciudadanas.
  • Sistemas de predicción delictiva basados en perfiles personales: No se permite la puesta en el mercado ni el uso de IA para evaluar o predecir la probabilidad de que alguien cometa un delito basándose únicamente en perfiles o características personales (p. ej. profiling automatizado). Esta prohibición busca impedir sistemas de “policía predictiva” que funcionen sin fundamentos objetivos; sólo se exceptúa el uso de IA para apoyar valoraciones humanas basadas en hechos objetivos verificados relacionados con un delito.
  • Creación indiscriminada de bases de datos biométricas con IA: Se prohíbe desarrollar o usar sistemas de IA para extraer de forma masiva imágenes faciales de Internet o CCTV con el fin de crear o ampliar bases de datos de reconocimiento facial. Esta cláusula impide prácticas de scraping no selectivo de datos biométricos para entrenar algoritmos de reconocimiento facial, cuando se haga sin control (violando posibles derechos de datos personales).
  • IA de reconocimiento de emociones en entornos laborales o educativos: Prohibido el uso de IA para inferir emociones de personas en el trabajo o en centros educativos (por ejemplo, sistemas que analicen expresiones faciales de empleados o alumnos), salvo que se usen por motivos médicos o de seguridad y se introduzcan específicamente para esos fines legítimos.
  •  
  • IA de categorización biométrica sensible: Prohibido introducir o usar sistemas de IA que clasifiquen individualmente a personas a partir de datos biométricos para inferir características sensibles – como raza, origen étnico, opiniones políticas, afiliación sindical, creencias religiosas, orientación sexual o vida sexual. Esta prohibición cierra la puerta a algoritmos que pretendan deducir tales atributos sensibles de las personas mediante reconocimiento biométrico. (Nota: no se prohíbe el etiquetado o filtrado de datos biométricos en conjuntos de datos de forma lícita, ni ciertas aplicaciones en el ámbito de la legislación penal expresamente autorizada).
  • Identificación biométrica remota en tiempo real en espacios públicos con fines policiales: Se prohíbe el uso de sistemas de identificación biométrica remota (real-time, generalmente reconocimiento facial en vivo) por parte de autoridades públicas en espacios accesibles al público con fines de aplicación de la ley. Solo se contemplan excepciones muy tasadas a esta prohibición: p.ej., uso estrictamente necesario para localizar víctimas de secuestro o trata, prevenir una amenaza terrorista inminente, o identificar autores de delitos graves específicos (listados en un anexo) tras autorización judicial o legal pertinente. Fuera de esos supuestos excepcionales, la vigilancia biométrica masiva en tiempo real por las fuerzas del orden queda prohibida por el Reglamento.
  • También se halla prohibido cualquier otro sistema de IA que infrinja cualquier otra Disposición del Derecho de la UE (por ejemplo, el marco legal en materia de protección de datos o de ciberseguridad).

Sujetos obligados: Estas prohibiciones vinculan a todos los actores. En la práctica, ningún desarrollador o proveedor puede ofrecer ni poner en servicio sistemas de IA con las funcionalidades arriba listadas, so pena de incumplir el art. 5 del Reglamento. Igualmente, los usuarios o responsables del despliegue (incluidas autoridades) tienen prohibido utilizar tales sistemas. Es decir, queda prohibido desarrollar, comercializar, distribuir o utilizar IA en esas aplicaciones expresamente vetadas. Los Estados miembros deberán garantizar la vigilancia y sanción de estas prácticas si ocurrieran, a partir de las fechas indicadas.

En resumen, desde antes de agosto de 2025 los proveedores y usuarios deben asegurarse de no incurrir en ninguna de las prácticas prohibidas anteriores. Estas representan el nivel más alto de restricciones del Reglamento, por involucrar riesgos intolerables. El incumplimiento podrá dar lugar a sanciones administrativas severas (con multas de hasta 40 millones de euros o 7% del volumen de negocios anual, según el art. 109) una vez entre en vigor el régimen sancionador a partir de agosto de 2025.

Sistemas de IA de Alto Riesgo (High-Risk AI Systems)

Los sistemas de IA de alto riesgo son aquellos que, por su finalidad y contexto de uso, pueden afectar significativamente la seguridad, la salud o los derechos fundamentales. Se definen en el Anexo III del Reglamento, que incluye dos grandes categorías: (1) sistemas en productos sujetos a evaluación de conformidad por terceros (según legislación sectorial, como vehículos, equipos médicos, juguetes, etc.), y (2) sistemas en ámbitos explícitamente listados (por ejemplo: identificación biométrica en diferido, gestión de infraestructuras críticas, educación, empleo, servicios públicos esenciales, aplicación de la ley, migración/asilo/fronteras, administración de justicia democrática, etc.). Si un sistema de IA encaja en alguna de las áreas o casos de uso del anexo, será considerado “de alto riesgo” y deberá cumplir requisitos estrictos. Aunque estas obligaciones específicas no serán exigibles legalmente hasta el 2 de agosto de 2027, conviene detallarlas ya que el Reglamento exige prepararse con antelación y algunas disposiciones relacionadas (por ejemplo, infraestructura de evaluación de conformidad y gobernanza) se activan antes.

A continuación se resumen los requerimientos principales para sistemas de IA de alto riesgo y las obligaciones de cada sujeto involucrado:

  • Requisitos esenciales (Seguridad y conformidad): Todo sistema de IA de alto riesgo deberá diseñarse y desarrollarse cumpliendo una serie de requisitos técnicos y organizativos enumerados en la Sección 2 del Capítulo III. Estos requisitos incluyen, entre otros: un sistema de gestión de riesgos continuo durante el ciclo de vida (Art. 9), calidad de los datos de entrenamiento y test (Art. 10), documentación técnica exhaustiva (Art. 18), trazabilidad mediante registro de eventos (logs) automatizados (Art. 19), transparencia e información al usuario (Art. 13), provisión de supervisión humana adecuada (Art. 14), y asegurar la robustez, exactitud y ciberseguridad del sistema (Art. 15). El proveedor debe garantizar que el sistema cumple todos estos requisitos antes de comercializarlo.
  • Evaluación de la conformidad y marcado CE: Los sistemas de IA de alto riesgo estarán sujetos a un procedimiento de evaluación de conformidad antes de su puesta en el mercado o en servicio (Art. 43). En muchos casos, dicha evaluación requerirá la intervención de un organismo notificado independiente (conforme a las modalidades del Anexo VII), mientras que en otros podrá realizarla el propio proveedor bajo control interno (Anexo VI). Si el sistema supera con éxito la evaluación, el proveedor deberá emitir y firmar una Declaración UE de Conformidad (Art. 47) y colocar el marcado CE en el sistema (o en su documentación) como señal de que es conforme al Reglamento (Art. 48). Solo con este marcado CE podrá el sistema de IA de alto riesgo comercializarse legalmente en la UE.
  • Registro de sistemas de IA de alto riesgo: El Reglamento prevé la creación de una base de datos de la UE donde deben inscribirse los sistemas de IA de alto riesgo antes de su puesta en servicio (Art. 49.1). Esta obligación de registro aplica tanto a proveedores (al registrar sus sistemas certificados) como a ciertas autoridades u organismos públicos cuando vayan a desplegar sistemas de IA de alto riesgo (Art. 54.8). Adicionalmente, a nivel nacional, determinados sistemas (por ejemplo, los de identificación biométrica remota) deben notificarse o registrarse ante autoridades competentes.

A efectos de claridad, seguidamente se indican las obligaciones por sujeto en relación con sistemas de IA de alto riesgo:

  • Proveedor/desarrollador (fabricante) de sistemas de alto riesgo: Es el principal responsable de asegurar la conformidad del sistema. Sus obligaciones se detallan en el artículo 16 y siguientes. En síntesis, el proveedor debe:
  • Diseñar y construir el sistema cumpliendo todos los requisitos esenciales de la Sección 2 (seguridad, calidad, transparencia, etc.). Debe llevar a cabo evaluaciones de riesgo previas, mitigar riesgos y documentar exhaustivamente el desarrollo.
  • Implementar un Sistema de Gestión de la Calidad (Art. 17) que cubra controles de diseño, desarrollo, datos, gestión de riesgos, seguimiento post-mercado, etc., para garantizar el cumplimiento continuo.
  • Elaborar la Documentación Técnica requerida (Art. 18), describiendo detalladamente el sistema, su propósito, diseño, algoritmos, datos usados, evaluaciones realizadas y cumplimiento de requisitos. Esta documentación debe conservarse por 10 años y ponerse a disposición de autoridades en caso de requerirse.
  • Asegurar trazabilidad: incorporar archivos de registro (logs) automatizados en el sistema (Art. 19) y conservarlos (en la medida bajo su control) para poder auditar decisiones o resultados del sistema.
  • Someter el sistema a Evaluación de Conformidad (Art. 43) antes de mercado, escogiendo el módulo aplicable (generalmente, evaluación por tercero para la mayoría de sistemas autónomos, o control interno para ciertos sistemas poco críticos). Debe remediar cualquier no-conformidad detectada.
  • Emitir Declaración UE de Conformidad (Art. 47) y marcar CE el sistema (Art. 48) al acreditar que cumple el Reglamento.
  • Registro UE: registrar el sistema en la base de datos europea de IA de alto riesgo (Art. 49.1) antes de su puesta en servicio.
  • Identificación y contacto: indicar en el sistema o documentación su nombre, marca registrada y dirección de contacto (trazabilidad del responsable).
  • Acciones correctivas y obligaciones post-mercado: supervisar el funcionamiento una vez en mercado, llevar a cabo vigilancia postcomercialización (Art. 72) y notificar incidentes graves a las autoridades (Art. 73). Si descubre que un sistema comercializado no es conforme o entraña riesgos, debe informar a autoridades y retirar o corregir el sistema según proceda (Art. 20).
  • Cooperar con autoridades: a requerimiento motivado, facilitar toda información necesaria para demostrar la conformidad del sistema (Art. 16.k) y permitir evaluaciones.
  • Garantizar accesibilidad: si aplica, asegurarse de que el sistema cumple requisitos de accesibilidad para personas con discapacidad (Art. 16.l), en línea con la legislación europea pertinente.

En síntesis, el proveedor (ya sea el desarrollador que comercializa el sistema o quien lo integra bajo su marca) actúa de manera similar a un fabricante bajo regulación de producto: debe obtener certificaciones, documentar todo, mantener control de calidad y asumir la responsabilidad de que el sistema de IA de alto riesgo que introduce en el mercado es seguro, conforme y fiable conforme al Reglamento. Estas amplias obligaciones no serán exigibles hasta agosto de 2027, pero los proveedores están invitados a cumplirlas voluntariamente antes durante el período transitorio para ganar experiencia y asegurar una transición sin sobresaltos.

  • Importador de sistemas de IA de alto riesgo: Si el proveedor no está establecido en la UE, cualquier importador que introduzca un sistema de IA de alto riesgo en el mercado de la Unión asume obligaciones (Art. 23). Antes de importar, el importador debe verificar que el sistema cumple el Reglamento (por ejemplo, que lleva marcado CE, declaración de conformidad e instrucciones). Si tiene razones para pensar que no es conforme o que la documentación es falsa, no debe importarlo ni distribuirlo hasta que se garantice la conformidad. Debe también asegurarse de que el proveedor extranjero ha nombrado un representante autorizado en la UE (salvo que actúe él mismo como tal). Además, el importador ha de:
  • Indicar su nombre y dirección en el embalaje o documentación del sistema, para trazar quién lo importó (Art. 23.3).
  • Conservar copias de la documentación técnica, declaración UE de conformidad y certificados por 10 años desde la puesta en mercado.
  • Garantizar condiciones de transporte y almacenamiento apropiadas para que la conformidad no se vea comprometida (Art. 23.4).
  • Proporcionar información a autoridades bajo solicitud motivada, para demostrar la conformidad del sistema (Art. 23.6).
  • Cooperar con las autoridades de vigilancia en cualquier acción correctiva o de mitigación de riesgos relativa a sistemas que haya importado (Art. 23.7).

En esencia, el importador actúa como enlace cuando el proveedor es extracomunitario, responsabilizándose de que no entren en la UE sistemas de IA de alto riesgo no conformes.

  • Distribuidor de sistemas de IA de alto riesgo: Un distribuidor (cualquier entidad en la cadena de suministro distinta de proveedor o importador, que comercializa o revende el sistema) también tiene obligaciones (Art. 24). Mientras el distribuidor tenga un sistema en su responsabilidad, debe verificar que lleva el marcado CE, la documentación e instrucciones en idioma oficial, y que el proveedor e importador cumplieron sus obligaciones de identificación y seguimiento. Si advierte que el sistema no es conforme o presenta riesgo, debe abstenerse de distribuirlo hasta que se corrija. Asimismo, el distribuidor:
  • Debe asegurar que las condiciones de almacenamiento o transporte bajo su control no comprometen la conformidad esencial del sistema (Art. 24.1).
  • Si el sistema presenta un riesgo grave, el distribuidor debe informar inmediatamente al proveedor o importador y a las autoridades de vigilancia del mercado.
  • Cooperará con autoridades en medidas para mitigar riesgos (Art. 24.3).
  • Si un distribuidor (u otro tercero) comercializa el sistema bajo su propio nombre o marca, o lo modifica sustancialmente, pasa a ser considerado proveedor a todos los efectos (debe cumplir las obligaciones del art. 16).

En resumen, el distribuidor debe actuar con la diligencia debida para no vender sistemas de IA de alto riesgo que no cumplan la ley, funcionando como un segundo control en la cadena.

  • Responsable del despliegue (usuario) de sistemas de IA de alto riesgo: Es la persona física o jurídica (empresa, organización, entidad pública) que utiliza el sistema de IA en su actividad bajo su autoridad (no uso personal doméstico). Las obligaciones del usuario se establecen en el artículo 26. En términos generales, el responsable del despliegue debe:
  • Usar el sistema conforme a las instrucciones del proveedor. Debe implementar las medidas técnicas y organizativas apropiadas para que la utilización real del sistema siga las instrucciones de uso y limitaciones previstas por el proveedor. Por ejemplo, si el manual indica que el sistema no es apto para cierto entorno, el usuario no debe emplearlo allí.
  • Mantener supervisión humana efectiva: Debe asignar personas físicas con la capacitación y autoridad necesarias para supervisar el funcionamiento del sistema de IA de alto riesgo (lo que se deriva también de las obligaciones de supervisión humana establecidas por el proveedor). En otras palabras, el usuario debe asegurar que sus empleados u operadores entienden el sistema y pueden intervenir si es necesario.
  • Controlar los datos de entrada: En la medida en que el usuario controle o aporte datos de entrada al sistema, debe verificar que esos datos son pertinentes y representativos para la finalidad prevista del sistema (Art. 26.4), evitando sesgos o datos de mala calidad que puedan degradar la seguridad o exactitud.
  • Monitorizar el funcionamiento y reportar incidentes: El usuario debe vigilar continuamente los resultados y el comportamiento del sistema durante su uso real, siguiendo las instrucciones del proveedor. Si detecta que la utilización conforme a las instrucciones puede generar riesgos significativos (p. ej. el sistema empieza a fallar de forma peligrosa), debe informar sin demora al proveedor o distribuidor y a la autoridad de vigilancia, y suspender el uso hasta que se subsane. Asimismo, si ocurre un incidente grave (definido en el Reglamento, por ej. que cause daños o violación seria de derechos), el responsable del despliegue debe notificarlo inmediatamente primero al proveedor y luego a la autoridad competente (Art. 26.5).
  • Conservar registros (logs): En la medida en que los archivos de registro generados automáticamente por el sistema estén bajo el control del usuario (por ejemplo, logs locales), deberá guardarlos por un período adecuado (al menos 6 meses, salvo disposición legal contraria) (Art. 26.6). Esto para posibilitar auditorías o análisis posteriores sobre el comportamiento del sistema.
  • Información a empleados y personas afectadas: Si el usuario es un empleador que va a introducir un sistema de IA de alto riesgo en el entorno laboral (por ej., un sistema de evaluación de empleados mediante IA), debe informar previamente a los trabajadores y sus representantes de que serán sujetos a dicho sistema, siguiendo normas de información laboral. Igualmente, si el sistema de IA toma decisiones que afectan a personas (por ejemplo, rechazo de un crédito), el usuario debe considerar obligaciones de informar a los afectados según otras leyes (por ejemplo, en protección de datos o no discriminación).
  • Obligaciones de registro para usuarios públicos: Las autoridades u organismos públicos que sean usuarios de IA de alto riesgo deben verificar que el sistema está registrado en la base de datos de la UE (Art. 54.8). Si van a utilizar un sistema de alto riesgo no registrado por el proveedor, no deberán utilizarlo e informarán al proveedor o distribuidor para que se subsane. Además, estas entidades públicas deben registrarse ellas mismas en la base de datos antes de utilizar tales sistemas (por control y transparencia).
  • Evaluaciones de impacto y autorizaciones especiales: En ciertos casos, el uso de un sistema de IA de alto riesgo puede requerir pasos adicionales. Por ejemplo, si una entidad financiera usa IA de alto riesgo, pudiera exigírsele una evaluación de impacto en derechos fundamentales antes de ponerlo en funcionamiento (según considerandos del Reglamento). O bien, si una policía va a usar un sistema de identificación biométrica en diferido para buscar sospechosos, deberá solicitar autorización judicial previa dentro de las 48h (Art. 26.10). Estas obligaciones sectoriales complementan las del Reglamento general.

En suma, el responsable del despliegue debe operar los sistemas de IA de alto riesgo de manera responsable y diligente, sirviendo de capa de control operacional. Aunque el proveedor haya tomado medidas de seguridad, el usuario es quien finalmente decide cómo y en qué contexto se utiliza la IA, por lo que tiene el deber de usarla según las limitaciones, vigilar su desempeño y reaccionar ante potenciales riesgos. Todas estas obligaciones de los usuarios también entrarán en vigor en agosto de 2027; hasta entonces, se recomienda encarecidamente que las organizaciones usuarias empiecen a implementar estos procedimientos para estar preparadas.

Nota: Hasta el 2 de agosto de 2025, las obligaciones anteriores para sistemas de alto riesgo no son aún exigibles legalmente. No obstante, las empresas y entidades deben aprovechar el período transitorio para adecuar sus procesos y sistemas de calidad, dado que la aplicación plena será el 2 de agosto de 2026 en la mayoría de aspectos, con la excepción de los requisitos de alto riesgo que tienen un año adicional (2027). Conviene también destacar que ya desde 2025 los Estados miembros deberán haber designado autoridades de supervisión y organismos notificados para evaluar la conformidad, de modo que la infraestructura de certificación esté lista a tiempo.

Obligaciones de Transparencia para sistemas de IA de riesgo limitado

El Reglamento establece en su Capítulo IV una serie de obligaciones de transparencia aplicables a ciertos sistemas de IA, incluso si no son de alto riesgo, cuando su uso puede implicar opacidad hacia las personas afectadas. Estas obligaciones buscan asegurar que los usuarios sepan cuándo están interactuando con una IA o consumiendo contenido generado artificialmente, y que haya advertencias en contextos sensibles. Aunque formalmente estas disposiciones generales se aplicarán a partir de la fecha de aplicación completa (prevista en agosto de 2026), las mencionamos por completitud, ya que forman parte integral de los requerimientos que deben observar proveedores y usuarios de IA. En particular, el artículo 50 impone las siguientes obligaciones de transparencia para proveedores y responsables del despliegue de determinados sistemas:

  • Sistemas que interactúan con humanos: Los proveedores deben diseñar los sistemas de IA destinados a interactuar con personas (p. ej. chatbots, asistentes virtuales) de forma que informen claramente a la persona de que está tratando con una IA y no con un humano. Esta revelación puede ser verbal, visual o de otro tipo, pero debe ocurrir en el primer momento de interacción y ser fácilmente perceptible para un usuario medio. Se exceptúan los casos en que sea evidente por el contexto que es una IA (una persona razonable lo entendería sin aviso) o cuando la ley autorice expresamente no revelarlo (por ejemplo, en ciertas investigaciones policiales encubiertas). En general, cualquier empresa que implemente un chatbot de atención al cliente o similar deberá advertir al cliente que es un asistente automatizado.
  • Contenido sintético (audio, visual, texto) generado o manipulado por IA: Los proveedores de sistemas de IA que generen contenido artificial (imágenes, vídeos, audio o texto deepfake, etc.) deben asegurar que las salidas del sistema están marcadas de manera detectable como generadas artificialmente. Es decir, deben incorporar marcas o «watermarks» visibles o invisibles en el contenido, en un formato legible por máquina, para posibilitar la detección de que dicho contenido es sintético. Las soluciones técnicas deben ser eficaces, interoperables y fiables dentro de lo técnicamente posible. Ejemplo: Un generador de imágenes por IA debería insertar metadatos o marcas que permitan a otras herramientas reconocer que la imagen es creada por IA. Esta obligación de “etiquetado automático” no aplica si el sistema de IA sirve meramente de ayuda a una edición humana estándar (sin generar contenido sustancial) ni a sistemas autorizados por ley para fines penales. En resumen, los desarrolladores/proveedores de IA generativa deben integrar señalizaciones para mitigar riesgos de desinformación.
  • Sistemas de reconocimiento de emociones o de categorización biométrica: Los responsables del despliegue que utilicen sistemas de IA para reconocer emociones humanas (p. ej. reconocimiento de expresiones faciales, tono de voz para deducir estado emocional) o para clasificar personas en categorías mediante biometría (distinto de identificación, por ej. clasificación étnica por rasgos faciales) deben informar a las personas expuestas a estos sistemas sobre su funcionamiento. Además, si tratan datos personales en estos procesos, deben cumplir estrictamente el RGPD u otras normas de protección de datos aplicables. Esta obligación de transparencia no aplica a usos de tales sistemas por autoridades en investigaciones penales autorizadas por ley, pero sí por ejemplo a empresas privadas que pretendan usar IA para análisis de emociones de clientes – estos clientes deben ser advertidos.
  • “Ultrafalsificaciones” (deepfakes) de imagen, audio o vídeo: Los responsables del despliegue de sistemas de IA que generen o manipulen sustancialmente imágenes, vídeos o audio realisticamente (deepfakes) deben hacer público que dicho contenido es artificial. Es decir, si alguien difunde un vídeo alterado por IA o crea una imitación de voz, tiene la obligación de acompañarlo de un aviso claro de que es contenido generado o manipulado por IA. Hay excepciones limitadas: no se exige esta transparencia si el contenido deepfake se usa en contextos creativos evidentes (obra artística o satírica donde el público lo entiende, por ejemplo una parodia en cine – en tal caso basta con indicar en créditos que hay contenido generado por IA). Tampoco aplica si la ley lo exceptúa para fines de seguridad (p.ej. operaciones policiales encubiertas). En todos los demás casos, quien publique o distribuya deepfakes debe advertir su naturaleza no real para no inducir a engaño al público.
  • Textos generados por IA con apariencia informativa (noticias, artículos): De forma relacionada con lo anterior, el Reglamento exige que si un sistema de IA genera texto que se publica con propósito de informar al público sobre asuntos de interés general (por ejemplo, noticias, posts aparentando ser redactados por humanos), el responsable del despliegue deberá divulgar claramente que el texto ha sido generado o manipulado artificialmente. Solo se exceptúa si el contenido ha pasado por revisión o control editorial humana antes de publicarse y hay una persona o entidad asumiendo la responsabilidad editorial (en cuyo caso deja de considerarse estrictamente “contenido autónomo de IA”). Esta medida intenta prevenir que noticias falsas generadas íntegramente por IA se presenten al público sin ninguna indicación.

Estas obligaciones de transparencia complementan otras normas (por ejemplo, obligaciones de informar en materia de protección de datos, o disposiciones del Reglamento (UE) 2022/2065 de Servicios Digitales sobre indicar contenido automatizado).

Importante: en todos los casos anteriores, la información debe proporcionarse de manera clara, accesible y en el momento oportuno (al inicio de la interacción o exposición al contenido). La Oficina de IA a nivel de la UE fomentará además códigos de buenas prácticas para la implementación efectiva de estas medidas de transparencia (especialmente para la detección y etiquetado de contenido AI).

Sujetos obligados: Como se indicó, tanto proveedores como usuarios pueden tener deberes de transparencia dependiendo del caso. Resumiendo:

  • Proveedores/desarrolladores: Deben habilitar que sus sistemas informen (en interacciones persona-IA) y deben incorporar marcas de agua o etiquetados en las salidas generadas por IA (texto, audio, video, imágenes).
  • Responsables del despliegue (usuarios finales corporativos o institucionales): Deben informar cuando usen sistemas de IA de análisis emocional o de categorización biométrica, y deben avisar al difundir contenido sintético o deepfakes generados con IA.
  • Distribuidores: en principio no tienen obligaciones directas en este capítulo, más allá de no remover u ocultar las indicaciones de los proveedores. Si distribuyen contenido, deberán asegurarse de que venga marcado según corresponda.

Estas obligaciones, insistimos, serán exigibles a partir del 2 de agosto de 2026 (fecha general de aplicación del Reglamento), por lo que a agosto de 2025 son aún preparatorias. No obstante, dado el rápido avance de las IA generativas y los riesgos asociados, es recomendable que las empresas empiecen a implementar estas prácticas de transparencia cuanto antes.

Modelos de IA de uso general (Fundacionales o de propósito general)

Una de las novedades del texto final del Reglamento es la regulación específica de los modelos de IA de uso general (General Purpose AI, a menudo modelos fundacionales entrenados con conjuntos de datos muy amplios y no diseñados para un propósito concreto). Estos incluyen, por ejemplo, grandes modelos de lenguaje, modelos generativos multiuso, etc., que pueden luego integrarse en innumerables aplicaciones aguas abajo. El Capítulo V del Reglamento establece obligaciones diferenciadas para los proveedores de modelos de IA de uso general, reconociendo su posición clave en la cadena de valor de la IA. Estas obligaciones serán exigibles a partir del 2 de agosto de 2025, un año antes de la aplicación general, precisamente debido a la rápida evolución y adopción de estos modelos.

¿Qué se considera “modelo de IA de uso general”? El Reglamento lo define como un modelo capaz de desempeñar tareas generales para múltiples propósitos, posiblemente adaptado posteriormente (fine-tuning) para casos concretos (Art. 3, nº 1). Además, introduce la subcategoría de “modelos de IA de uso general con riesgo sistémico”, aquellos de escala o impacto tan grandes que puedan presentar riesgos en toda la Unión. Por ejemplo, un modelo con altísimas capacidades (medidas, entre otros, por el cómputo utilizado para entrenarlo) puede ser clasificado como de riesgo sistémico automáticamente si supera cierto umbral (10^25 operaciones de coma flotante en entrenamiento, según art. 51.2), o por decisión de la Comisión tras consultar expertos. Esta categoría conlleva requisitos adicionales que veremos más adelante.

A continuación, las obligaciones principales para proveedores (desarrolladores) de modelos de uso general, según el artículo 53:

  • Documentación técnica del modelo: El proveedor debe elaborar y mantener documentación técnica completa sobre el modelo de IA general, incluyendo detalles del proceso de entrenamiento, métodos de prueba, métricas de rendimiento y resultados de evaluaciones efectuadas. La documentación debe cumplir los contenidos mínimos del Anexo XI del Reglamento (p. ej. descripción del data set, arquitectura, finalidad prevista, limitaciones conocidas, sesgos identificados, etc.), de modo que pueda facilitarse a la nueva Oficina de IA europea o a autoridades nacionales si lo solicitan. Mantener esta documentación actualizada es crucial para la trazabilidad y supervisión de estos modelos.
  • Información y soporte para integradores: El proveedor de un modelo general debe preparar y poner a disposición de los proveedores de sistemas de IA que vayan a integrar ese modelo en sus propias aplicaciones información y documentación adecuadas sobre el modelo. Esto busca que los desarrolladores aguas abajo comprendan bien las capacidades y limitaciones del modelo y puedan cumplir sus propias obligaciones reglamentarias. En el Anexo XII se listan los elementos mínimos que debe contener esta información para integradores (por ejemplo: supuestos de idoneidad del modelo, performance en distintas tareas, recomendaciones de uso, etc.). En suma, el proveedor inicial debe transferir conocimiento a los usuarios de su modelo para que estos lo usen de forma segura y conforme a la ley.
  • Respeto de normas de derechos de autor: El proveedor debe establecer directrices y medidas para cumplir la legislación de propiedad intelectual, en particular para detectar y respetar reservas de derechos en datos utilizados. Por ejemplo, de conformidad con la Directiva (UE) 2019/790, artículo 4(3), los titulares pueden excluir sus datos de ciertos usos de minería; el modelo de IA general debe honrar esas reservas. Esto implica que los desarrolladores de modelos generales deben filtrar o etiquetar datos protegidos por copyright en sus conjuntos de entrenamiento o implementar herramientas punteras para excluir contenidos con “no consentido” en minería de datos. Es un requisito novedoso orientado a proteger a creadores y artistas cuyos trabajos podrían haber sido usados para entrenar IA.
  • Transparencia sobre datos de entrenamiento: El proveedor debe publicar y poner a disposición del público un resumen suficientemente detallado del contenido utilizado en el entrenamiento del modelo. Este resumen, cuyo formato podrá estandarizar la futura Oficina de IA, busca dar transparencia sobre las fuentes de datos (por categorías, origen, naturaleza) empleadas para entrenar el modelo. No exige revelar cada dato específico ni infringir secretos industriales, pero sí brindar una idea clara del “de qué se ha nutrido la IA”. Esto permite escrutinio público y académico sobre posibles sesgos o problemas en los datos.
  • Cooperación con autoridades: Los proveedores de modelos de uso general deben cooperar con la nueva Oficina Europea de IA y con las autoridades nacionales en el ejercicio de sus funciones (supervisión, investigación de incumplimientos, etc.). Esto implica responder requerimientos, someterse a auditorías o inspecciones si fuera necesario y facilitar acceso a información bajo confidencialidad. También se prevé que los proveedores puedan adherirse voluntariamente a códigos de conducta para demostrar cumplimiento (Art. 53.4 y Art. 56). De hecho, hasta que existan normas técnicas armonizadas para esta área, seguir códigos de buenas prácticas reconocidos servirá como elemento para presumir cumplimiento.
  • Excepción para software de código abierto: Importante destacar que el Reglamento introduce una exención para modelos de IA difundidos abiertamente. Las obligaciones de documentar (a) y proveer información a integradores (b) no se aplicarán a proveedores de modelos de IA que se divulguen bajo licencia libre y de código abierto, siempre que publiquen los parámetros completos (pesos), la arquitectura y la información necesaria para usar el modelo. En otras palabras, si un desarrollador libera totalmente el modelo a la comunidad (open-source full), no está obligado por esas cargas documentales – se entiende que la transparencia queda garantizada por la accesibilidad del propio modelo. Ojo: esta excepción no rige si el modelo de código abierto es considerado de “riesgo sistémico” (ver próximo apartado). Además, el proveedor open-source seguirá estando sujeto a las demás obligaciones (p. ej. respeto a PI, resumen de datos de entrenamiento, etc., en la medida aplicable).
  • Designación de representante en la UE: Si el proveedor del modelo de IA de uso general está establecido fuera de la UE y quiere comercializar o poner a disposición su modelo en la Unión, debe nombrar previamente un representante autorizado en la UE (Art. 54). Este representante (persona física o jurídica en la UE) actúa como punto de contacto y asume la responsabilidad de ciertas tareas: comprobar que se elaboró la documentación técnica según Anexo XI, conservar esa documentación durante 10 años, proporcionar información a la Oficina de IA bajo requerimiento, y cooperar con autoridades. Si el representante detecta incumplimientos del proveedor, debe poner fin a su mandato e informar a la Oficina de IA. Esta exigencia es análoga a otras regulaciones de producto para no permitir que actores extracomunitarios esquiven la supervisión.

Modelos de IA de uso general con riesgo sistémico

En resumen, a partir de agosto de 2025, los desarrolladores/proveedores de modelos fundacionales deberán tener en orden su documentación técnica, ser transparentes con datos y limitaciones, ayudar a quienes reutilicen sus modelos y respetar derechos de autor. Aunque estas obligaciones son menos estrictas que las de los sistemas finales de alto riesgo, constituyen una responsabilidad inédita para empresas que hasta ahora liberaban modelos globales sin controles. Su cumplimiento será supervisado centralmente por la Oficina Europea de IA, a la que el Reglamento confiere poderes exclusivos para vigilar e imponer medidas correctivas en materia de modelos de uso general. Igualmente, el Consejo Europeo de IA (organismo de coordinación entre Estados) participará en la elaboración de guías y buenas prácticas en este terreno.

Dentro de los modelos de propósito general, el Reglamento identifica aquellos de “riesgo sistémico” que, por su escala, complejidad o difusión, pueden tener impacto muy amplio en la sociedad o conllevar nuevos tipos de riesgo. Como se explicó, un modelo entra en esta categoría si cumple ciertos criterios (ej. volumen de computación masivo >10^25 FLOPs durante entrenamiento, u otros parámetros listados en el Anexo XIII), o si la Comisión Europea lo designa explícitamente como tal tras consultar un grupo de expertos científicos. Los proveedores deben notificar a la Comisión cuando prevean que su modelo alcanzará umbrales de riesgo sistémico, pudiendo aportar argumentos si creen que pese al umbral el modelo no presenta riesgos sistémicos reales (la Comisión evaluará y puede aceptar o rechazar esos argumentos). La Comisión publicará una lista oficial de modelos considerados de riesgo sistémico.

¿Por qué importa esta clasificación? Porque el Reglamento impone obligaciones adicionales a los proveedores de estos modelos, recogidas en el artículo 55, además de las obligaciones generales vistas (arts. 53 y 54). Estas obligaciones extra, igualmente aplicables desde el 2 de agosto de 2025, son:

  • Evaluación rigurosa de riesgos sistémicos: El proveedor deberá evaluar su modelo mediante protocolos y herramientas estandarizadas, incorporando pruebas específicas (incluyendo tests de adversarios o “red teaming”) para detectar vulnerabilidades y posibles usos maliciosos del modelo. Esto implica someter el modelo a escenarios simulados de ataque o de outputs dañinos, con el fin de identificar riesgos sistémicos (por ejemplo, potencial para generar desinformación masiva, o ser utilizado para ciberataques) y mitigar dichos riesgos antes de su despliegue masivo. Estas pruebas y sus resultados deben documentarse.
  • Gestión de riesgos a escala de la Unión: Más allá de riesgos individuales, el proveedor debe evaluar y mitigar los riesgos potenciales a escala societal o de la Unión Europea que puedan derivarse del desarrollo, distribución o uso del modelo de IA general con riesgo sistémico. Debe identificar el origen de esos riesgos (p.ej. si vienen de sesgos de entrenamiento, de posible maluso por terceros, de falta de controles) y tomar medidas para reducirlos. En otras palabras, se exige un análisis de impacto amplio: cómo podría afectar negativamente el modelo a sectores enteros, a procesos democráticos, a usuarios en general, etc., y actuar en consecuencia (p.ej. limitando ciertas funcionalidades o implementando salvaguardas).
  • Vigilancia de incidentes graves y reporte: El proveedor tiene que monitorear el funcionamiento del modelo post-lanzamiento y llevar registro de incidentes graves relacionados con el modelo. Debe documentarlos y notificarlos sin demora indebida a la Oficina de IA y, si procede, a autoridades nacionales. Además, debe proponer o aplicar medidas correctoras para resolver dichos incidentes o evitar su repetición. Un “incidente grave” podría ser, por ejemplo, un uso del modelo que cause daños sustanciales a usuarios, brechas de seguridad significativas, o hallazgo de una vulnerabilidad explotable. Esta obligación de reporting proactivo es similar a la de vigilancia post-mercado en dispositivos médicos, trasladada al mundo de la IA.
  • Ciberseguridad reforzada: El proveedor debe asegurarse de establecer un nivel adecuado de protección de ciberseguridad tanto para el modelo de IA en sí (sus parámetros, APIs, etc.) como para la infraestructura física donde se aloja. Dado que estos modelos pueden convertirse en infraestructura crítica por su amplio uso, se exige implementar medidas contra accesos no autorizados, manipulación maliciosa del modelo, extracción de datos confidenciales, etc. Esto complementa los requisitos generales de robustez, pero con énfasis en prevenir que el modelo sea comprometido y se convierta en vector de ataques sistémicos.

Estas obligaciones reflejan un enfoque de gestión de riesgos ampliado: los proveedores de modelos fundacionales gigantes deben actuar con máxima precaución y responsabilidad, anticipando no solo el uso normal sino también los malos usos o impactos indirectos. Para facilitar el cumplimiento, los proveedores podrán igualmente apoyarse en códigos de buenas prácticas o en normas armonizadas futuras que cubran estos aspectos (similares a lo mencionado en art. 53.4). Adherirse a códigos aprobados o seguir normas técnicas dará presunción de conformidad también en estas obligaciones específicas.

Sujetos obligados: Claramente, estas cargas adicionales atañen solo a los proveedores de los modelos de IA de uso general designados de riesgo sistémico. No aplican a modelos generales de menor escala (esos solo cumplen art. 53). Tampoco hay obligaciones directas nuevas para importadores, distribuidores o usuarios finales relativas a la “riesgosidad sistémica” del modelo; sin embargo, si un downstream provider integra un modelo sistémico en un sistema de alto riesgo, tendrá que considerar esos riesgos en su evaluación general. La lógica es que el control se ejerza en la fuente: la empresa que entrena, posee y distribuye un GPT-4, por ejemplo, es la que debe realizar red teaming, monitorización global de impactos, etc., dados sus recursos y conocimiento del modelo.

El cumplimiento de estas obligaciones será vigilado por la Oficina de IA junto al Consejo de IA, los cuales también elaborarán conjuntamente los códigos de conducta específicos para modelos generales y con riesgo sistémico. Se espera que dichos códigos especifiquen metodologías comunes, taxonomías de riesgos, niveles de detalle adecuados en los resúmenes de datos, etc., para guiar a la industria en la práctica.

Vale reiterar que los modelos abiertos (open source) no están exentos de estas obligaciones si se consideran de riesgo sistémico. Por ejemplo, si una organización libera un modelo gigantesco abiertamente y la Comisión lo designa de riesgo sistémico, deberá aún cumplir con evaluaciones adversarias, mitigación de riesgos, reporte de incidentes, etc., pese a ser abierto.

Otras disposiciones de gobernanza y sanciones

Para completar este informe, mencionamos brevemente las disposiciones de gobernanza y régimen sancionador, ya que a partir del 2 de agosto de 2025 también comienzan a operar elementos clave del ecosistema regulatorio:

  • Autoridades, Oficina y Consejo de IA: El Reglamento establece la creación de la Oficina Europea de IA (EU AI Office), una entidad central que apoyará la aplicación coherente del Reglamento (similar a la EDPB en privacidad). También prevé que cada Estado miembro designe una o varias autoridades nacionales competentes en materia de IA, incluyendo autoridades de vigilancia del mercado para hacer cumplir las obligaciones. Asimismo, se crea el Consejo Europeo de IA, compuesto por representantes de las autoridades nacionales y la Oficina de IA, para coordinarse. Según el plan inicial, las disposiciones sobre estructura de gobernanza y organismos notificados estaban previstas para entrar en aplicación junto con la mayoría de obligaciones en 2026. Sin perjuicio de ello, a mediados de 2025 los Estados ya deberán haber avanzado en la designación de sus autoridades y notificar a la Comisión las normas sobre sanciones nacionales aplicables.
  • Régimen sancionador (Capítulo XII): A partir del 2 de agosto de 2025 serán aplicables las normas de sanciones administrativas del Reglamento. Esto significa que los Estados miembros deben haber establecido para entonces en su derecho interno las multas y medidas correctivas por incumplimiento. El Reglamento fija topes máximos uniformes: hasta 40 millones de euros o 7% del volumen de negocio global anual (la cantidad mayor) para infracciones muy graves, como violar las prohibiciones del art. 5 o los requisitos de datos de alto riesgo; hasta 20 millones o 4% para otros incumplimientos de obligaciones de proveedores (ej. falta de certificación CE); y 10 millones o 2% para faltas menos graves o suministro de información incorrecta (Art. 109). Las autoridades de cada país podrán imponer estas multas administrativas y otras sanciones (por ejemplo, orden de cese, retiro del mercado de un sistema, etc.) a los sujetos infractores – ya sean proveedores, usuarios, importadores o representantes – a partir de la vigencia de cada obligación. Por ejemplo, si un proveedor a finales de 2025 no cumple con las obligaciones de un modelo de IA general (Cap. V), podría enfrentarse a sanciones conforme a estas reglas.
  • Relación con otras leyes y responsabilidades civiles: El Reglamento de IA se complementará con normas sobre responsabilidad civil por daños causados por IA (la propuesta de Directiva de responsabilidad en IA). Aunque ello excede este análisis, cabe recordar que el cumplimiento de las obligaciones reglamentarias también incidirá en la eventual responsabilidad: un proveedor que no implemente las medidas requeridas y cuyo sistema cause un daño podría ver agravada su posición jurídica. Además, las obligaciones de IA conviven con las de protección de datos personales (RGPD), no discriminación, seguridad de productos, etc., que siguen plenamente aplicables. De hecho, el art. 2 del Reglamento reafirma que se aplica junto con la normativa de datos, consumidores, ciberseguridad, etc.

En conclusión, desde el 2 de agosto de 2025 los distintos actores en el campo de la IA en Europa estarán sujetos a un marco jurídico vinculante que les impone requisitos y deberes diferenciados según el tipo de sistema y su rol. Los desarrolladores y proveedores deberán evitar prácticas prohibidas, obtener certificaciones CE para IA de alto riesgo (cuando corresponda, a partir de 2027), documentar y controlar la calidad de sus modelos, y ser transparentes con integradores y usuarios. Los distribuidores e importadores funcionarán como garantes adicionales de conformidad, vigilando que solo se comercialicen sistemas permitidos y cumpliendo con el papeleo y cooperación. Los usuarios (responsables del despliegue) tendrán que utilizar la IA de forma responsable, siguiendo instrucciones, informando a las personas afectadas en ciertos contextos y notificando problemas. Todo este entramado normativo persigue un objetivo: lograr una IA confiable, segura y acorde con los valores y derechos fundamentales de la UE, sin frenar la innovación.

A continuación, se presenta una tabla resumen sintetizando las obligaciones exigibles desde agosto de 2025 por tipo de sistema de IA y por sujeto obligado.

Tabla resumen de requisitos y obligaciones (desde agosto de 2025)

Tipo de sistema de IAProveedor / DesarrolladorImportador / DistribuidorResponsable del despliegue (Usuario)
Prácticas de IA prohibidas
(Art. 5: riesgo inadmisible)
No desarrollar ni ofrecer sistemas con prácticas prohibidas (manipulación subliminal, explotación de vulnerables, scoring social, predicción delictiva por perfilado, scraping masivo de biometría, reconocimiento de emociones en trabajo/educación, categorización biométrica sensible, vigilancia biométrica masiva).
Deber de abstención absoluto: el proveedor que fabrique o comercialice una IA para esos fines estaría infringiendo directamente el art. 5.
No importar ni distribuir sistemas de IA que se sepa o se sospeche que realizan prácticas prohibidas. (Estos sistemas no pueden tener marcado CE ni circular legalmente).
– Un distribuidor o importador que identificara que un producto de IA realiza una práctica vetada debe rechazarlo y notificar a autoridades.
No utilizar ningún sistema de IA en las prácticas prohibidas. Incluye a empresas y autoridades: p. ej., una agencia pública no puede implementar scoring social ciudadano ni usar reconocimiento facial en vivo salvo excepciones legales muy tasadas.
– Si, inadvertidamente, un usuario profesional adquiriera un sistema luego categorizado como prohibido, debe cesar su uso inmediatamente.
Sistemas de IA de alto riesgo
(Cap. III; Anexo III)
Antes de comercializar/desplegar: asegurar cumplimiento de todos los requisitos esenciales (gestión de riesgos, calidad de datos, documentación técnica, registro de eventos, transparencia, supervisión humana, robustez).
– Implementar sistema de gestión de calidad y evaluación de conformidad con organismo notificado si aplica.
– Emitir Declaración UE de Conformidad y colocar marcado CE antes de poner en mercado.
Registrar el sistema en la base de datos de la UE (cuando esté operativa).
– Proporcionar instrucciones de uso claras y información al usuario (Art. 13).
Monitoreo post-venta: recopilar experiencia, notificar incidentes graves a autoridades, tomar acciones correctivas cuando sea necesario (Art. 20, 72, 73).
(Obligaciones exigibles legalmente desde 2027; hasta entonces, cumplimiento voluntario recomendado).
Verificar conformidad CE antes de introducir en mercado: que el sistema tenga marcado CE, documentación, instrucciones en idioma requerido y nombre/contacto del proveedor.
– Si el proveedor está fuera de la UE: asegurarse de que existe un representante autorizado en la UE (o actuar como tal).
No poner en circulación sistemas sin evaluar o falsificados; notificar al proveedor y a autoridades si detecta no conformidad.
Conservar documentación clave (declaración, certificados) por 10 años.
Mantener condiciones adecuadas de almacenamiento/transporte para no dañar la conformidad.
Colaborar con autoridades ante solicitudes de información y controlar riesgos: informar de riesgos graves inmediatamente y apoyar en retiradas o recalls.
Usar según las instrucciones del proveedor; no alterar el uso previsto.
Designar supervisión humana competente para el sistema (evitar uso totalmente automatizado sin control).
Verificar datos de entrada: que sean pertinentes y de calidad para la finalidad (en la medida que los proporcione).
Monitorizar el desempeño durante el uso; si se detecta riesgo grave o mal funcionamiento: suspender uso e informar inmediatamente al proveedor/distribuidor y autoridades.
Notificar incidentes graves al proveedor y autoridades sin demora.
Conservar los registros (logs) generados por el sistema bajo su control al menos 6 meses.
Informar a las personas afectadas cuando corresponda (p. ej. trabajadores si se usa IA para evaluarlos, clientes si una decisión automatizada adversa requiere explicación, etc.).
– Si es una autoridad pública usuaria: registrar el uso del sistema en la base de datos UE; no usar sistemas no registrados.
Sistemas de IA con obligaciones de transparencia
(IA de “riesgo limitado”, art. 50)
IA que interactúa con humanos: debe estar diseñada para revelar su naturaleza artificial. Ej: un asistente virtual salude indicando que es un sistema automatizado
IA generativa (texto, imagen, audio): implementar marcas de agua u otros identificadores en las salidas generadas, para posibilitar su detección como contenido sintético.
– Incluir esta funcionalidad de marcado de forma robusta y proporcional a lo técnicamente posible.
(Estas obligaciones son exigibles desde 2026, pero se recomienda incorporarlas en diseños ya en 2025).
– No obligaciones específicas más allá de respetar lo implementado por el proveedor. (Un distribuidor no debe quitar etiquetas de IA generativa, por ejemplo). Si reempaqueta un sistema interactivo, debe mantener la funcionalidad de aviso al usuario.
– En la cadena comercial, asegurarse de que el producto de IA incluya en documentación las indicaciones de transparencia para el usuario final (por ejemplo, que el manual mencione “este chatbot avisará que es una IA”).
Información sobre uso de IA a terceros: Si usa un sistema de reconocimiento de emociones o categorización biométrica, debe informar a las personas sometidas a dicho sistema, p. ej. avisos en un lugar vigilado con IA emocional.
Etiquetado de contenido: Si difunde públicamente contenido (imagen, audio, video) generados o alterados por IA (“deepfakes”), debe identificar claramente que son artificiales. Ej: marca de agua visible en un vídeo, o nota al pie en una foto generada.
Divulgación de texto generado: Si publica texto generado por IA haciéndolo pasar por noticia/información real, debe revelar que es generado, salvo revisión editorial humana completa.
– Excepciones: Contextos artísticos, parodia o autorizados por ley pueden flexibilizar el modo de transparencia, pero no eliminan la obligación de indicar el carácter artificial de algún modo.
Modelos de IA de uso general
(Cap. V, aplicable 2/8/2025)
Documentación técnica del modelo: crearla y actualizarla con información detallada del desarrollo, entrenamiento y pruebas (según Anexo XI).
Información a terceros: proporcionar a los desarrolladores que integren el modelo datos y documentación sobre sus capacidades, límites y cómo cumplir obligaciones (según Anexo XII).
Respeto a copyright: implementar directrices para detectar y respetar contenido con derechos protegidos en los datos de entrenamiento (p.ej. honrar opt-outs).
Transparencia de datos: publicar un resumen público de los conjuntos de datos usados para entrenar el modelo.
Cooperar con autoridades: atender requerimientos de la Oficina de IA y autoridades nacionales; eventualmente someterse a auditorías.
– Si el modelo es de código abierto completo (con pesos y diseño accesibles): exención de tener que cumplir con la documentación técnica y la info a terceros (53.1 a) y b)), salvo que sea de riesgo sistémico.
Representante en la UE: si el proveedor está fuera, debe nombrar un representante en la UE antes de distribuir el modelo, que asegure el cumplimiento de art. 53, conserve documentación 10 años y sea punto de contacto.
Importadores de modelos de uso general (p. ej. si importan software de IA): deben verificar que el proveedor extranjero ha designado representante en la UE. Si no, quien importe podría ser considerado proveedor. (El Reglamento no detalla obligaciones específicas de importador/distribuidor para modelos generales, pero por analogía deben garantizar que se cumplen art. 53 y 54 antes de difundir el modelo).
Distribuidores: en caso de redistribuir un modelo general (p.ej. alojando un modelo pre-entrenado), deberían mantener disponibles la documentación pública (resumen de datos, etc.) y transmitir a los usuarios finales cualquier información proporcionada por el desarrollador original. Si lo distribuyen bajo su marca, pasarían a ser proveedores con las mismas obligaciones.
Usuarios finales de un modelo de propósito general “tal cual” (ej. desarrolladores que usan un modelo abierto): no tienen obligaciones directas en Cap. V, pero se espera que sigan las instrucciones y documentación brindada por el proveedor para usar el modelo de forma conforme.
Integradores: Si un usuario integra un modelo general en su propio sistema de IA (p. ej. fine-tuning de un modelo abierto para una aplicación), ese usuario se convierte en proveedor de un sistema de IA final y debe cumplir las obligaciones que correspondan a ese sistema (si resulta ser de alto riesgo, deberá cumplir Cap. III). El Reglamento alivia a los integradores al obligar a los proveedores originales a darles la información necesaria.
Modelos de IA de uso general con riesgo sistémico
(Art. 55, aplicable 2/8/2025)
Evaluación adversarial: realizar tests de red-teaming y otras evaluaciones con protocolos estandarizados para identificar vulnerabilidades y riesgos de uso indebido. Documentar los resultados y tomar medidas mitigadoras antes del despliegue amplio.
Análisis de riesgos sistémicos UE: evaluar posibles impactos perjudiciales a escala Unión derivados del modelo (en desarrollo, lanzamiento o uso); mitigar riesgos originados (p.ej. riesgos de desinformación masiva, ciberabusos, etc.). Actualizar este análisis conforme surjan nuevos escenarios.
Monitorización e incidentes: establecer mecanismos para vigilar el funcionamiento del modelo tras su lanzamiento; registrar y notificar incidentes graves relacionados con el modelo sin demora a la Oficina de IA y autoridades competentes, proponiendo soluciones.
Ciberseguridad: asegurar medidas reforzadas de seguridad informática para proteger el modelo y su infraestructura (control de acceso, prevención de manipulación, integridad de datos, etc.).
Demostrar cumplimiento: al igual que en art. 53, poder demostrar a autoridades que se han cumplido estas obligaciones adicionales (posiblemente adhiriendo a códigos de conducta específicos).
– (No aplica exención de código abierto: incluso modelos abiertos considerados sistémicos deben cumplir estos puntos).
– (Sin obligaciones específicas adicionales; en la práctica, importadores/distribuidores de un modelo sistémico deben tratarlo igual que modelos generales en cuanto a documentación, pero no se les exige evaluar riesgos sistémicos: esa carga recae en el proveedor original). Si un distribuidor detectase un uso abusivo o incidente grave con un modelo sistémico, debería informar al proveedor.Usuarios e integradores: No asumen obligaciones directas nuevas por el carácter sistémico del modelo per se, pero deberán posiblemente acatar cualquier restricción de uso o advertencia que el proveedor del modelo sistémico comunique tras sus evaluaciones de riesgo (por ejemplo, “no usar el modelo para X finalidad”).
– Si un usuario integra un modelo sistémico en un sistema de alto riesgo, deberá informar al proveedor del modelo de cualquier incidente grave que pueda vincularse a la base (por responsabilidad compartida), además de cumplir las obligaciones de usuario de alto riesgo ya descritas.

Fuentes: Reglamento (UE) 2024/1689 (Ley de IA). Todas las obligaciones descritas se basan exclusivamente en el texto legal publicado en el Diario Oficial de la UE y han sido extraídas mediante IA para esta publicación. Se recomienda a los operadores de IA consultar el texto completo del Reglamento para mayor detalle y prepararse con la debida antelación para su plena entrada en aplicación.

Disponen de más información en las recientes monografías publicadas por Aranzadi La Ley de las que es autor o coautor el Director Jurídico de nuestra corporación, José Manuel Muñoz Vela:

  • El Reglamento Europeo de Inteligencia Artificial. El mundo jurídico y el derecho ante una nueva era. Aranzadi La Ley. Diciembre 2024
  • La regulación de la inteligencia artificial. Reto y oportunidad desde una perspectiva global e internacional. Aranzadi La Ley. Octubre 2024
  • Comentarios al Reglamento Europeo de Inteligencia Artificial. Aranzadi La Ley. Octubre 2024