Términos clave del EU AI Act

Glosario

Definiciones oficiales y explicaciones de los conceptos fundamentales del Reglamento (UE) 2024/1689

111 términos encontrados

Sistema de IA

Definiciones Básicas

Sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar resultados como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.

GPAIAlto RiesgoIA Generativa
Fuente oficial: Art. 3(1) Reglamento (UE) 2024/1689

Proveedor

Actores

Persona física o jurídica, autoridad pública, agencia u otro organismo que desarrolla un sistema de IA o que encarga su desarrollo con vistas a comercializarlo o ponerlo en servicio con su propio nombre o marca.

DeployerDistribuidorImportador
Fuente oficial: Art. 3(3) Reglamento (UE) 2024/1689

Deployer (Usuario)

Actores

Persona física o jurídica, autoridad pública, agencia u otro organismo que utiliza un sistema de IA bajo su autoridad, excepto cuando el sistema se usa en el curso de una actividad personal no profesional.

ProveedorResponsabilidadSupervisión Humana
Fuente oficial: Art. 3(4) Reglamento (UE) 2024/1689

Distribuidor

Actores

Persona física o jurídica en la cadena de suministro, distinta del proveedor o importador, que comercializa un sistema de IA sin alterar sus propiedades.

ProveedorImportadorCadena de Suministro
Fuente oficial: Art. 3(5) Reglamento (UE) 2024/1689

Importador

Actores

Persona física o jurídica establecida en la Unión que comercializa un sistema de IA que lleva el nombre o marca de una persona física o jurídica establecida fuera de la Unión.

ProveedorDistribuidor
Fuente oficial: Art. 3(6) Reglamento (UE) 2024/1689

Representante Autorizado

Actores

Persona física o jurídica establecida en la Unión que ha recibido un mandato escrito de un proveedor de un sistema de IA para actuar en su nombre.

ProveedorImportador
Fuente oficial: Art. 3(7) Reglamento (UE) 2024/1689

Riesgo Inaceptable

Clasificación de Riesgo

Sistemas de IA que contravienen los valores de la Unión por vulnerar derechos fundamentales. Están completamente prohibidos.

Prácticas ProhibidasArt. 5Manipulación
Fuente oficial: Art. 5 Reglamento (UE) 2024/1689

Alto Riesgo

Clasificación de Riesgo

Sistemas de IA que presentan un riesgo significativo para la salud, seguridad o derechos fundamentales de las personas. Están sujetos a obligaciones estrictas de conformidad, documentación y supervisión.

Anexo IIIEvaluación de ConformidadSupervisión Humana
Fuente oficial: Art. 6 y Anexo III Reglamento (UE) 2024/1689

Riesgo Limitado

Clasificación de Riesgo

Sistemas de IA con obligaciones específicas de transparencia, como chatbots o sistemas que generan contenido.

TransparenciaArt. 52Chatbot
Fuente oficial: Art. 52 Reglamento (UE) 2024/1689

Riesgo Mínimo

Clasificación de Riesgo

La mayoría de sistemas de IA que no presentan riesgos significativos. Sin requisitos legales específicos, pero se fomenta la autorregulación.

Códigos de ConductaAutorregulación
Fuente oficial: Considerando 14 Reglamento (UE) 2024/1689

Prácticas Prohibidas

Prácticas Prohibidas

Sistemas de IA con riesgo inaceptable que están completamente prohibidos en la UE.

Riesgo InaceptableDerechos FundamentalesArt. 5
Fuente oficial: Art. 5 Reglamento (UE) 2024/1689

Manipulación Subliminal

Prácticas Prohibidas

Técnicas subliminales más allá de la conciencia de una persona para distorsionar materialmente su comportamiento de manera que cause o pueda causar un daño significativo.

Prácticas ProhibidasDerechos Fundamentales
Fuente oficial: Art. 5(1)(a) Reglamento (UE) 2024/1689

Explotación de Vulnerabilidades

Prácticas Prohibidas

Sistemas de IA que explotan vulnerabilidades de grupos específicos (edad, discapacidad, situación social o económica) para distorsionar materialmente su comportamiento.

Prácticas ProhibidasGrupos Vulnerables
Fuente oficial: Art. 5(1)(b) Reglamento (UE) 2024/1689

Social Scoring

Prácticas Prohibidas

Evaluación o clasificación de personas físicas por autoridades públicas basada en su comportamiento social o características personales, que resulte en un trato perjudicial.

Prácticas ProhibidasAutoridades Públicas
Fuente oficial: Art. 5(1)(c) Reglamento (UE) 2024/1689

Policía Predictiva Individual

Prácticas Prohibidas

Sistemas de IA que evalúan el riesgo de que una persona física cometa una infracción penal basándose únicamente en su perfil o características.

Prácticas ProhibidasAplicación de la Ley
Fuente oficial: Art. 5(1)(d) Reglamento (UE) 2024/1689

Reconocimiento de Emociones en el Trabajo

Prácticas Prohibidas

Sistemas de IA que reconocen o infieren emociones de personas físicas en el lugar de trabajo o en instituciones educativas (con excepciones médicas o de seguridad).

Prácticas ProhibidasRRHHEducación
Fuente oficial: Art. 5(1)(f) Reglamento (UE) 2024/1689

Categorización Biométrica Sensible

Prácticas Prohibidas

Sistemas de IA que categorizan personas basándose en datos biométricos para inferir o deducir raza, opiniones políticas, afiliación sindical, creencias religiosas, vida sexual u orientación sexual.

Prácticas ProhibidasBiometríaDatos Sensibles
Fuente oficial: Art. 5(1)(e) Reglamento (UE) 2024/1689

Identificación Biométrica

Alto Riesgo - Biometría

Reconocimiento automatizado de características físicas, fisiológicas o conductuales humanas con el fin de establecer la identidad de una persona.

Alto RiesgoBiometríaReconocimiento Facial
Fuente oficial: Art. 3(33) + Anexo III(1) Reglamento (UE) 2024/1689

Infraestructura Crítica

Alto Riesgo - Infraestructura

Sistemas de IA utilizados como componentes de seguridad en la gestión y operación de infraestructuras digitales críticas, tráfico rodado, suministro de agua, gas, calefacción y electricidad.

Alto RiesgoSeguridadNIS2
Fuente oficial: Anexo III(2) Reglamento (UE) 2024/1689

Educación y Formación Profesional

Alto Riesgo - Educación

Sistemas de IA para determinar el acceso o asignación a instituciones educativas, evaluar resultados de aprendizaje, detectar comportamiento prohibido de estudiantes o evaluar el nivel apropiado de educación.

Alto RiesgoEducaciónEvaluación
Fuente oficial: Anexo III(3) Reglamento (UE) 2024/1689

Empleo y RRHH

Alto Riesgo - Empleo

Sistemas de IA para publicar anuncios de empleo dirigidos, analizar y filtrar solicitudes, evaluar candidatos, tomar decisiones de contratación, promoción, terminación o asignación de tareas.

Alto RiesgoRRHHSelección de Personal
Fuente oficial: Anexo III(4) Reglamento (UE) 2024/1689

Servicios Esenciales

Alto Riesgo - Servicios

Sistemas de IA para evaluar la elegibilidad de personas para servicios esenciales públicos y privados (crédito, seguros, asistencia sanitaria, etc.).

Alto RiesgoCredit ScoringSeguros
Fuente oficial: Anexo III(5) Reglamento (UE) 2024/1689

Aplicación de la Ley

Alto Riesgo - Seguridad

Sistemas de IA utilizados por autoridades de aplicación de la ley para evaluación de riesgos, polígrafo, evaluación de fiabilidad de evidencias, predicción de delitos, perfiles, detección de deepfakes.

Alto RiesgoPolicíaJusticia
Fuente oficial: Anexo III(6) Reglamento (UE) 2024/1689

Migración y Asilo

Alto Riesgo - Migración

Sistemas de IA para evaluar solicitudes de asilo, visados, permisos de residencia, detectar documentos falsos, evaluar riesgos de seguridad o irregularidad.

Alto RiesgoFronterasInmigración
Fuente oficial: Anexo III(7) Reglamento (UE) 2024/1689

Administración de Justicia y Democracia

Alto Riesgo - Justicia

Sistemas de IA para asistir a autoridades judiciales en investigación e interpretación de hechos y la ley, y en la aplicación de la ley a hechos concretos.

Alto RiesgoTribunalesDemocracia
Fuente oficial: Anexo III(8) Reglamento (UE) 2024/1689

GPAI (IA de Propósito General)

GPAI

Modelo de IA entrenado con grandes cantidades de datos a gran escala, diseñado para la generalidad de resultados y capaz de realizar competentemente una amplia gama de tareas distintas.

IA GenerativaRiesgo SistémicoModelo Fundacional
Fuente oficial: Art. 3(63) Reglamento (UE) 2024/1689

IA Generativa

GPAI

Sistema de IA capaz de generar contenido nuevo como texto, imágenes, audio o vídeo en respuesta a prompts o instrucciones.

GPAITransparenciaCopyright
Fuente oficial: Art. 3(66) Reglamento (UE) 2024/1689

Modelo Fundacional

GPAI

Modelo de IA entrenado en datos amplios que puede ser adaptado a una amplia gama de tareas posteriores.

GPAITransfer LearningFine-tuning
Fuente oficial: Considerando 96 Reglamento (UE) 2024/1689

Riesgo Sistémico

GPAI

Riesgo específico de los modelos GPAI más potentes que pueden tener un impacto negativo a gran escala en la salud, seguridad, derechos fundamentales, medio ambiente, democracia o Estado de derecho.

GPAIModelo FundacionalCapacidades de Alto Impacto
Fuente oficial: Art. 51 Reglamento (UE) 2024/1689

Capacidades de Alto Impacto

GPAI

Capacidades que igualan o superan las capacidades registradas en los modelos GPAI más avanzados. Umbral: 10^25 FLOPS para entrenamiento.

Riesgo SistémicoGPAI
Fuente oficial: Art. 51(1)(a) Reglamento (UE) 2024/1689

Transparencia

Transparencia

Obligación de informar claramente a los usuarios cuando están interactuando con un sistema de IA o cuando el contenido ha sido generado por IA.

IA GenerativaDerechos de los UsuariosExplicabilidad
Fuente oficial: Art. 50 y 52 Reglamento (UE) 2024/1689

Divulgación de IA

Transparencia

Obligación de informar a las personas físicas cuando interactúan con un sistema de IA, salvo que sea obvio por las circunstancias.

TransparenciaChatbotRiesgo Limitado
Fuente oficial: Art. 52(1) Reglamento (UE) 2024/1689

Deepfake

Transparencia

Contenido de imagen, audio o vídeo generado o manipulado por IA que se asemeja apreciablemente a personas, objetos, lugares o entidades o acontecimientos existentes, y que parecería falsamente auténtico o veraz a una persona.

IA GenerativaTransparenciaManipulación
Fuente oficial: Art. 3(60) Reglamento (UE) 2024/1689

Marcado de Agua (Watermarking)

Transparencia

Técnica para incrustar información en contenido generado por IA de manera que sea detectable pero no altere significativamente el contenido.

IA GenerativaTransparenciaTrazabilidad
Fuente oficial: Art. 53(1)(d) Reglamento (UE) 2024/1689

Evaluación de Conformidad

Conformidad

Proceso mediante el cual se demuestra que un sistema de IA de alto riesgo cumple con los requisitos establecidos en el Reglamento.

Alto RiesgoDocumentación TécnicaMarcado CE
Fuente oficial: Art. 43 Reglamento (UE) 2024/1689

Marcado CE

Conformidad

Marcado mediante el cual un proveedor indica que un sistema de IA de alto riesgo cumple con los requisitos del Reglamento y otras legislaciones de armonización de la Unión aplicables.

Evaluación de ConformidadAlto Riesgo
Fuente oficial: Art. 48 Reglamento (UE) 2024/1689

Documentación Técnica

Conformidad

Conjunto de información detallada sobre el diseño, desarrollo y funcionamiento del sistema de IA que debe mantenerse actualizada.

Evaluación de ConformidadTrazabilidadAnexo IV
Fuente oficial: Art. 11 y Anexo IV Reglamento (UE) 2024/1689

Instrucciones de Uso

Conformidad

Información proporcionada por el proveedor para informar al deployer sobre el uso previsto del sistema de IA y su funcionamiento.

DeployerDocumentación Técnica
Fuente oficial: Art. 13 Reglamento (UE) 2024/1689

Supervisión Humana

Conformidad

Medidas que permiten a las personas supervisar el funcionamiento del sistema de IA de alto riesgo durante su uso, incluyendo la capacidad de intervenir o interrumpir el sistema.

Alto RiesgoGobernanzaSeguridad
Fuente oficial: Art. 14 Reglamento (UE) 2024/1689

Precisión

Conformidad

Capacidad del sistema de IA para producir resultados correctos.

RobustezCalidad de Datos
Fuente oficial: Art. 15 Reglamento (UE) 2024/1689

Robustez

Conformidad

Capacidad del sistema de IA para funcionar de manera fiable y segura, incluso en condiciones de estrés o cuando se enfrenta a cambios en el entorno operativo.

PrecisiónCiberseguridad
Fuente oficial: Art. 15 Reglamento (UE) 2024/1689

Ciberseguridad

Conformidad

Medidas técnicas y organizativas apropiadas para proteger el sistema de IA contra intentos no autorizados de alterar su uso, resultados o rendimiento.

RobustezNIS2DORA
Fuente oficial: Art. 15 Reglamento (UE) 2024/1689

Gobernanza de Datos

Protección de Datos

Prácticas de gestión de datos aplicadas a la recopilación, el análisis, el almacenamiento y el uso de datos de entrenamiento, validación y prueba.

Calidad de DatosGDPR
Fuente oficial: Art. 10 Reglamento (UE) 2024/1689

Calidad de Datos

Protección de Datos

Características de los conjuntos de datos de entrenamiento, validación y prueba que garantizan que el sistema de IA funcione según su uso previsto.

Gobernanza de DatosSesgo
Fuente oficial: Art. 10(3) Reglamento (UE) 2024/1689

Sesgo

Protección de Datos

Resultado sistemático que favorece o desfavorece injustamente a ciertos grupos o individuos.

Calidad de DatosDiscriminaciónEquidad
Fuente oficial: Art. 10(2)(f) Reglamento (UE) 2024/1689

DPIA (Evaluación de Impacto de Protección de Datos)

Protección de Datos

Evaluación del impacto de las operaciones de tratamiento previstas en la protección de datos personales.

GDPRAlto RiesgoPrivacidad
Fuente oficial: GDPR Art. 35

Oficina Europea de IA

Gobernanza

Órgano de la Comisión Europea responsable de la supervisión de la aplicación del Reglamento de IA.

Comisión EuropeaSupervisión
Fuente oficial: Art. 64 Reglamento (UE) 2024/1689

Organismo Notificado

Gobernanza

Organismo de evaluación de la conformidad designado por un Estado miembro para llevar a cabo evaluaciones de conformidad de sistemas de IA de alto riesgo.

Evaluación de ConformidadCertificación
Fuente oficial: Art. 33 Reglamento (UE) 2024/1689

Vigilancia del Mercado

Gobernanza

Actividades llevadas a cabo por autoridades públicas para verificar que los sistemas de IA cumplen con los requisitos del Reglamento.

Autoridades NacionalesCumplimiento
Fuente oficial: Art. 74 Reglamento (UE) 2024/1689

Sandbox Regulatorio

Gobernanza

Entorno controlado facilitado por autoridades competentes para el desarrollo, prueba y validación de sistemas de IA innovadores bajo supervisión regulatoria.

InnovaciónPruebas
Fuente oficial: Art. 57 Reglamento (UE) 2024/1689

Sanciones Administrativas

Sanciones

Multas económicas por incumplimiento del Reglamento. Escala: hasta €35M o 7% de facturación global anual (prácticas prohibidas), €15M o 3% (obligaciones de GPAI), €7.5M o 1.5% (otras obligaciones). Las más altas de cualquier regulación de IA en el mundo.

CumplimientoPrácticas ProhibidasVigilancia del Mercado
Fuente oficial: Art. 99 Reglamento (UE) 2024/1689

Incidente Grave

Sanciones

Incidente o mal funcionamiento de un sistema de IA que directa o indirectamente conduce a la muerte o daño grave a la salud de una persona, o a una perturbación grave y irreversible de la gestión de infraestructuras críticas.

NotificaciónSeguridad
Fuente oficial: Art. 3(49) Reglamento (UE) 2024/1689

Derecho a Explicación

Derechos

Derecho de las personas afectadas por decisiones basadas en sistemas de IA de alto riesgo a obtener del deployer una explicación significativa y comprensible de la decisión, así como información sobre cómo presentar una queja.

TransparenciaDerechos FundamentalesFRIA
Fuente oficial: Art. 86 Reglamento (UE) 2024/1689

Derecho a Presentar Quejas

Derechos

Derecho de cualquier persona a presentar una queja ante una autoridad de supervisión del mercado si considera que un sistema de IA infringe el Reglamento.

Autoridades NacionalesReclamaciones
Fuente oficial: Art. 85 Reglamento (UE) 2024/1689

Datos de Entrenamiento

Conceptos Técnicos

Datos utilizados para entrenar un sistema de IA mediante el ajuste de sus parámetros aprendibles.

Machine LearningCalidad de Datos
Fuente oficial: Art. 3(32) Reglamento (UE) 2024/1689

Datos de Validación

Conceptos Técnicos

Conjunto de datos distinto del de entrenamiento, utilizado para proporcionar una evaluación del sistema de IA entrenado y para ajustar sus hiperparámetros no aprendibles y procedimientos de aprendizaje. Esencial para evitar sobreajuste (overfitting).

Datos de EntrenamientoDatos de PruebaHiperparámetros
Fuente oficial: Art. 3(33) Reglamento (UE) 2024/1689

Datos de Prueba

Conceptos Técnicos

Datos utilizados para proporcionar una evaluación independiente del sistema de IA con el fin de confirmar el rendimiento esperado antes de su comercialización. Deben ser completamente independientes de los datos de entrenamiento y validación.

Datos de ValidaciónEvaluación de Conformidad
Fuente oficial: Art. 3(34) Reglamento (UE) 2024/1689

Datos de Entrada

Conceptos Técnicos

Datos proporcionados al sistema de IA o adquiridos directamente por él en base a los cuales el sistema produce un resultado.

OutputProcesamiento
Fuente oficial: Art. 3(35) Reglamento (UE) 2024/1689

Datos Biométricos

Conceptos Técnicos

Datos personales resultantes de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física, que permitan o confirmen su identificación única.

Identificación BiométricaGDPR
Fuente oficial: Art. 3(36) Reglamento (UE) 2024/1689

Reconocimiento de Emociones

Conceptos Técnicos

Sistema de IA que identifica o infiere las emociones o intenciones de personas físicas basándose en sus datos biométricos.

BiometríaPrácticas Prohibidas
Fuente oficial: Art. 3(40) Reglamento (UE) 2024/1689

Categorización Biométrica

Conceptos Técnicos

Asignación de personas físicas a categorías específicas basándose en sus datos biométricos, salvo que sea auxiliar de otro servicio comercial.

BiometríaPrácticas Prohibidas
Fuente oficial: Art. 3(41) Reglamento (UE) 2024/1689

Identificación Biométrica Remota

Conceptos Técnicos

Identificación de personas físicas sin su participación activa, típicamente a distancia, mediante la comparación de datos biométricos con los contenidos en una base de datos de referencia.

BiometríaAlto RiesgoAplicación de la Ley
Fuente oficial: Art. 3(42) Reglamento (UE) 2024/1689

Identificación Biométrica Remota Posterior

Conceptos Técnicos

Identificación biométrica remota que se produce después de un retraso significativo, con exclusión de la identificación en tiempo real.

Identificación Biométrica RemotaAplicación de la Ley
Fuente oficial: Art. 3(43) Reglamento (UE) 2024/1689

Identificación Biométrica Remota en Tiempo Real

Conceptos Técnicos

Identificación biométrica remota donde la captura de datos biométricos, la comparación y la identificación se producen sin un retraso significativo.

Identificación Biométrica RemotaProhibiciones
Fuente oficial: Art. 3(44) Reglamento (UE) 2024/1689

Finalidad Prevista

Conceptos Legales

Uso para el cual un sistema de IA está destinado por el proveedor, incluyendo el contexto específico y las condiciones de uso.

Uso Razonablemente PrevisibleInstrucciones de Uso
Fuente oficial: Art. 3(12) Reglamento (UE) 2024/1689

Uso Indebido Razonablemente Previsible

Conceptos Legales

Uso del sistema de IA de una manera no conforme con su finalidad prevista, pero que puede resultar de un comportamiento humano razonablemente previsible o de la interacción con otros sistemas.

Finalidad PrevistaGestión de Riesgos
Fuente oficial: Art. 3(13) Reglamento (UE) 2024/1689

Componente de Seguridad

Conceptos Técnicos

Parte de un producto o sistema que cumple una función de seguridad para ese producto o sistema, o cuyo fallo o mal funcionamiento pone en peligro la salud y seguridad de las personas. Los sistemas de IA usados como componentes de seguridad son considerados de alto riesgo.

Alto RiesgoInfraestructura CríticaRobustez
Fuente oficial: Art. 3(14) Reglamento (UE) 2024/1689

Modificación Sustancial

Conceptos Legales

Cambio en un sistema de IA tras su comercialización o puesta en servicio que afecta al cumplimiento del Reglamento o que resulta en una modificación de la finalidad prevista para la cual el sistema fue evaluado. Requiere nueva evaluación de conformidad y puede convertir al deployer en proveedor.

Evaluación de ConformidadProveedorDeployer
Fuente oficial: Art. 3(23) Reglamento (UE) 2024/1689

Puesta a Disposición en el Mercado

Conceptos Legales

Suministro de un sistema de IA para su distribución o uso en el mercado de la Unión en el curso de una actividad comercial, ya sea a cambio de pago o gratuitamente.

ComercializaciónProveedor
Fuente oficial: Art. 3(9) Reglamento (UE) 2024/1689

Puesta en Servicio

Conceptos Legales

Suministro de un sistema de IA para su primer uso directamente al deployer o para uso propio en la Unión para su finalidad prevista. Puede ocurrir simultáneamente con la puesta a disposición en el mercado o posteriormente.

DeployerComercializaciónFinalidad Prevista
Fuente oficial: Art. 3(11) Reglamento (UE) 2024/1689

Retirada del Mercado

Conceptos Legales

Medida destinada a lograr la devolución de un sistema de IA que ya se ha puesto a disposición de los deployers.

Vigilancia del MercadoNo Conformidad
Fuente oficial: Art. 3(25) Reglamento (UE) 2024/1689

Retirada

Conceptos Legales

Medida destinada a impedir que un sistema de IA en la cadena de suministro se ponga a disposición en el mercado.

Vigilancia del MercadoNo Conformidad
Fuente oficial: Art. 3(26) Reglamento (UE) 2024/1689

Alfabetización en IA

Educación

Habilidades, conocimientos y comprensión que permiten a los proveedores, deployers y personas afectadas tomar decisiones informadas sobre sistemas de IA, así como obtener conocimientos básicos sobre la tecnología. Los Estados miembros deben promover medidas de alfabetización en IA.

EducaciónConcienciaciónDerechos de los Usuarios
Fuente oficial: Art. 4 Reglamento (UE) 2024/1689

Códigos de Conducta

Autorregulación

Acuerdos voluntarios destinados a fomentar la aplicación de los requisitos del Reglamento a sistemas de IA no de alto riesgo.

Riesgo MínimoAutorregulación
Fuente oficial: Art. 95 Reglamento (UE) 2024/1689

Normas Armonizadas

Normalización

Normas europeas adoptadas por organismos de normalización europeos que proporcionan presunción de conformidad con los requisitos del Reglamento.

Evaluación de ConformidadCumplimiento
Fuente oficial: Art. 40 Reglamento (UE) 2024/1689

Especificaciones Comunes

Normalización

Especificaciones técnicas adoptadas por la Comisión cuando no existen normas armonizadas o cuando son insuficientes.

Normas ArmonizadasCumplimiento
Fuente oficial: Art. 41 Reglamento (UE) 2024/1689

Vigilancia Posterior a la Comercialización

Supervisión

Actividades realizadas por proveedores para recopilar y revisar experiencias con sistemas de IA que han comercializado.

ProveedorSeguridad
Fuente oficial: Art. 72 Reglamento (UE) 2024/1689

Cadena de Valor de la IA

Conceptos Económicos

Secuencia completa de actividades relacionadas con el diseño, desarrollo, entrenamiento, validación, comercialización, distribución, despliegue, mantenimiento y retirada de sistemas de IA. El Reglamento asigna responsabilidades específicas a cada actor en la cadena.

ProveedorDeployerDistribuidor
Fuente oficial: Considerando 10 Reglamento (UE) 2024/1689

Sesgo Algorítmico

Conceptos Técnicos

Desviación sistemática en los resultados de un sistema de IA que favorece o desfavorece injustamente a ciertos grupos o individuos. Puede originarse en datos de entrenamiento sesgados, diseño del algoritmo o contexto de aplicación. La Ley de IA exige medidas para detectar y mitigar sesgos en sistemas de alto riesgo.

Calidad de DatosDiscriminaciónEquidad
Fuente oficial: Art. 10(2)(f) Reglamento (UE) 2024/1689

Gobernanza de Datos de Entrenamiento

Conceptos Técnicos

Conjunto de prácticas de gestión aplicadas a la recopilación, análisis, almacenamiento y uso de datos de entrenamiento, validación y prueba. Obligatoria para sistemas de alto riesgo según Art. 10, debe garantizar calidad, representatividad y ausencia de sesgos discriminatorios.

Datos de EntrenamientoCalidad de DatosGDPR
Fuente oficial: Art. 10 Reglamento (UE) 2024/1689

Logs (Registros Automáticos)

Conceptos Técnicos

Capacidad de los sistemas de IA de alto riesgo para registrar automáticamente eventos durante su operación. Obligatorio según Art. 12 para permitir trazabilidad, auditorías forenses y detección de incidentes. Deben conservarse durante un período apropiado.

TrazabilidadAuditoríaVigilancia Poscomercialización
Fuente oficial: Art. 12 Reglamento (UE) 2024/1689

Ciclo de Vida de la IA

Conceptos Técnicos

Todas las fases de existencia de un sistema de IA: desde la concepción inicial, diseño, desarrollo, entrenamiento, validación, comercialización, uso, actualización, mantenimiento hasta su retirada del mercado. El Reglamento exige gestión de calidad en todo el ciclo.

Sistema de Gestión de CalidadVigilancia Poscomercialización
Fuente oficial: Considerando 14 Reglamento (UE) 2024/1689

Falsos Positivos y Negativos

Conceptos Técnicos

Métricas críticas de precisión de un sistema de IA. Falso positivo: el sistema identifica incorrectamente una condición como presente. Falso negativo: el sistema no detecta una condición que sí está presente. Deben documentarse en la documentación técnica.

PrecisiónDocumentación TécnicaRobustez
Fuente oficial: Art. 15 + Anexo IV Reglamento (UE) 2024/1689

Interoperabilidad

Conceptos Técnicos

Capacidad de un sistema de IA para funcionar e intercambiar información con otros sistemas, productos o servicios de manera efectiva. Clave en ecosistemas industriales complejos y para evitar efectos de lock-in.

Normas ArmonizadasEspecificaciones Comunes
Fuente oficial: Considerando 28 Reglamento (UE) 2024/1689

Marca de Agua Digital (Watermarking)

Conceptos Técnicos

Método técnico para incrustar información imperceptible en contenido generado por IA (imágenes, audio, vídeo) que permite identificar su origen artificial. Obligatorio para proveedores de GPAI según Art. 50 para facilitar el cumplimiento de obligaciones de transparencia.

IA GenerativaTransparenciaDeepfake
Fuente oficial: Art. 50(2) Reglamento (UE) 2024/1689

Ataque Adversario

Ciberseguridad

Manipulación deliberada de las entradas de un sistema de IA para engañarlo y producir resultados incorrectos o maliciosos. La Ley de IA exige que los sistemas de alto riesgo sean robustos contra estos ataques.

RobustezCiberseguridadData Poisoning
Fuente oficial: Art. 15 Reglamento (UE) 2024/1689

Data Poisoning (Envenenamiento de Datos)

Ciberseguridad

Corrupción intencionada del conjunto de datos de entrenamiento para degradar el rendimiento del sistema de IA o introducir vulnerabilidades específicas. Los proveedores deben implementar medidas de gobernanza de datos para prevenirlo.

Datos de EntrenamientoCiberseguridadRobustez
Fuente oficial: Art. 10 + Art. 15 Reglamento (UE) 2024/1689

Exención de I+D

Conceptos Legales

La Ley de IA no se aplica a sistemas desarrollados y utilizados exclusivamente para fines de investigación científica y desarrollo de productos. Sin embargo, si el sistema se comercializa o se pone en servicio, debe cumplir todos los requisitos.

Sandbox RegulatorioComercialización
Fuente oficial: Art. 2(6) Reglamento (UE) 2024/1689

Software de Código Abierto (Open Source)

Conceptos Legales

Los modelos de IA de código abierto tienen un régimen especial en la Ley. Los modelos GPAI de código abierto con parámetros, pesos y arquitectura públicos están exentos de ciertas obligaciones, salvo que presenten riesgo sistémico.

GPAIRiesgo SistémicoTransparencia
Fuente oficial: Art. 51(3) Reglamento (UE) 2024/1689

Autoridad Notificante

Gobernanza

Entidad estatal de cada Estado miembro responsable de designar, evaluar y supervisar a los Organismos Notificados que realizan evaluaciones de conformidad de sistemas de IA de alto riesgo.

Organismo NotificadoEvaluación de Conformidad
Fuente oficial: Art. 28 Reglamento (UE) 2024/1689

Conformidad por Diseño

Conformidad

Principio de integrar los requisitos legales y éticos desde la primera línea de código y durante todo el ciclo de vida del sistema de IA, en lugar de añadirlos posteriormente. Análogo al "Privacy by Design" del GDPR.

Sistema de Gestión de CalidadCiclo de Vida de la IA
Fuente oficial: Considerando 71 Reglamento (UE) 2024/1689

Accesibilidad

Conformidad

Requisito de que los sistemas de IA de alto riesgo sean diseñados y desarrollados de manera que sean accesibles y usables por personas con discapacidad, cumpliendo con la Directiva (UE) 2019/882 sobre requisitos de accesibilidad.

Diseño InclusivoDerechos Fundamentales
Fuente oficial: Art. 4 Reglamento (UE) 2024/1689

Sostenibilidad Medioambiental

GPAI

Obligación de los proveedores de modelos GPAI de documentar y hacer pública información sobre el consumo energético del modelo y las medidas adoptadas para optimizar su eficiencia energética. Responde a la preocupación por la huella de carbono de la IA.

GPAIDocumentación TécnicaResponsabilidad Corporativa
Fuente oficial: Art. 53(1)(g) Reglamento (UE) 2024/1689

Evaluación de Impacto sobre Derechos Fundamentales (FRIA)

Conformidad

Obligación específica para los deployers de sistemas de IA de alto riesgo. Antes de poner en uso el sistema, deben realizar una evaluación de cómo afectará a los derechos fundamentales (privacidad, no discriminación, dignidad) y establecer medidas de mitigación. Diferente de la DPIA del GDPR, aunque complementaria.

DeployerAlto RiesgoDerechos Fundamentales
Fuente oficial: Art. 27 Reglamento (UE) 2024/1689

Sistema de Gestión de la Calidad (QMS)

Conformidad

Conjunto sistemático y documentado de políticas, procesos y procedimientos que el proveedor de un sistema de alto riesgo debe implementar. Debe cubrir: gestión de riesgos, gestión de datos, documentación técnica, vigilancia poscomercialización, gestión de cambios y auditorías internas. Inspirado en ISO 9001.

ProveedorAlto RiesgoISO 9001
Fuente oficial: Art. 17 Reglamento (UE) 2024/1689

Plan de Vigilancia Poscomercialización

Conformidad

Sistema proactivo y continuo que el proveedor debe mantener para recopilar, documentar y analizar datos sobre el rendimiento de su sistema de IA una vez está en el mercado. Objetivo: detectar fallos, sesgos emergentes, riesgos no previstos o cambios en el contexto de uso.

Vigilancia PoscomercializaciónIncidente GraveLogs
Fuente oficial: Art. 72 Reglamento (UE) 2024/1689

Instrucciones de Uso

Conformidad

Información concisa, completa, correcta y clara proporcionada por el proveedor al deployer. Debe incluir: identidad del proveedor, características del sistema, nivel de precisión esperado, limitaciones conocidas, medidas de supervisión humana necesarias, vida útil esperada y procedimientos de mantenimiento.

ProveedorDeployerDocumentación Técnica
Fuente oficial: Art. 13 Reglamento (UE) 2024/1689

Transparencia y Explicabilidad

Conformidad

Los sistemas de alto riesgo deben diseñarse y desarrollarse de manera que su funcionamiento sea suficientemente transparente para que los deployers puedan interpretar los resultados del sistema y utilizarlo adecuadamente. No exige "caja blanca" total, pero sí comprensión operativa.

Alto RiesgoDerecho a ExplicaciónInstrucciones de Uso
Fuente oficial: Art. 13 Reglamento (UE) 2024/1689

Robustez, Precisión y Ciberseguridad

Conformidad

Requisito técnico esencial del Art. 15. Los sistemas de IA de alto riesgo deben: (1) alcanzar un nivel apropiado de precisión, (2) ser resilientes frente a errores y fallos, (3) ser seguros contra intentos de manipulación malintencionada (ataques adversarios, data poisoning), y (4) mantener el rendimiento durante todo su ciclo de vida.

Alto RiesgoCiberseguridadAtaque Adversario
Fuente oficial: Art. 15 Reglamento (UE) 2024/1689

Documentación Técnica (Anexo IV)

Conformidad

Expediente exhaustivo que el proveedor debe elaborar antes del marcado CE. Contenido mínimo según Anexo IV: descripción general del sistema, especificaciones de diseño, información detallada sobre datos (entrenamiento, validación, prueba), métricas de rendimiento, gestión de riesgos, medidas de supervisión humana, y cambios sustanciales realizados.

Evaluación de ConformidadMarcado CEAnexo IV
Fuente oficial: Art. 11 + Anexo IV Reglamento (UE) 2024/1689

Sandbox Regulatorio (Espacio Controlado de Pruebas)

Gobernanza

Entorno controlado establecido por una autoridad competente nacional que permite el desarrollo, entrenamiento, validación y prueba de sistemas de IA innovadores bajo supervisión regulatoria directa antes de su comercialización. Ofrece "Safe Harbor" legal y fomenta la innovación responsable.

InnovaciónAutoridades NacionalesExención de I+D
Fuente oficial: Art. 57-60 Reglamento (UE) 2024/1689

Reconocimiento de Emociones (Detallado)

Prácticas Prohibidas

Sistema de IA destinado a identificar o inferir emociones o intenciones de personas físicas a partir de sus datos biométricos (expresiones faciales, voz, gestos). Su uso está PROHIBIDO en lugares de trabajo y en instituciones educativas, salvo excepciones muy limitadas por motivos médicos o de seguridad (ej. detectar fatiga en conductores).

Prácticas ProhibidasBiometríaLugar de Trabajo
Fuente oficial: Art. 5(1)(f) Reglamento (UE) 2024/1689

Categorización Biométrica (Detallado)

Prácticas Prohibidas

Asignación de personas físicas a categorías específicas sobre la base de sus datos biométricos. PROHIBIDO cuando se usa para inferir o deducir: raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida sexual u orientación sexual. Permitido para usos auxiliares (ej. filtros de edad en e-commerce).

BiometríaPrácticas ProhibidasDatos Sensibles
Fuente oficial: Art. 5(1)(e) + Art. 3(35) Reglamento (UE) 2024/1689

Identificación Biométrica Remota (Detallado)

Alto Riesgo - Biometría

Identificación de personas físicas sin su participación activa, típicamente a distancia, mediante la comparación de datos biométricos con los contenidos en una base de datos de referencia. La identificación biométrica remota en tiempo real en espacios públicos está PROHIBIDA para aplicación de la ley, salvo excepciones tasadas (terrorismo, secuestro, delitos graves).

BiometríaPrácticas ProhibidasAplicación de la Ley
Fuente oficial: Art. 5(1)(h) + Art. 3(42) Reglamento (UE) 2024/1689

Puesta a Disposición en el Mercado

Conceptos Legales

Suministro de un sistema de IA para su distribución o uso en el mercado de la Unión en el curso de una actividad comercial, ya sea a cambio de pago o gratuitamente. Momento crítico en el que se activan las obligaciones del proveedor.

ComercializaciónProveedorMarcado CE
Fuente oficial: Art. 3(9) Reglamento (UE) 2024/1689

Retirada del Mercado (Recall)

Conceptos Legales

Medida destinada a lograr la devolución de un sistema de IA que ya se ha puesto a disposición de los deployers. Obligatoria cuando se detecta una no conformidad grave o un riesgo significativo. Similar a los recalls de productos defectuosos.

Vigilancia del MercadoNo ConformidadIncidente Grave
Fuente oficial: Art. 3(25) Reglamento (UE) 2024/1689

Retirada (Withdrawal)

Conceptos Legales

Medida destinada a impedir que un sistema de IA en la cadena de suministro se ponga a disposición en el mercado. Preventiva, antes de que llegue a los deployers finales.

Vigilancia del MercadoNo ConformidadDistribuidor
Fuente oficial: Art. 3(26) Reglamento (UE) 2024/1689

Códigos de Conducta

Autorregulación

Acuerdos voluntarios destinados a fomentar la aplicación de los requisitos del Reglamento a sistemas de IA que no son de alto riesgo. La Comisión y los Estados miembros facilitarán la elaboración de códigos de conducta sectoriales. Especialmente relevantes para IA de riesgo mínimo.

Riesgo MínimoAutorregulaciónMejores Prácticas
Fuente oficial: Art. 95 Reglamento (UE) 2024/1689

Normas Armonizadas

Normalización

Normas europeas adoptadas por organismos de normalización europeos (CEN, CENELEC, ETSI) sobre la base de una solicitud de la Comisión. El cumplimiento con normas armonizadas confiere presunción de conformidad con los requisitos del Reglamento. Facilitan el cumplimiento técnico.

Evaluación de ConformidadCumplimientoCEN
Fuente oficial: Art. 40 Reglamento (UE) 2024/1689

Especificaciones Comunes

Normalización

Especificaciones técnicas adoptadas por la Comisión mediante actos de ejecución cuando no existen normas armonizadas, son insuficientes o hay un retraso injustificado en su adopción. Tienen carácter obligatorio si no hay normas armonizadas disponibles.

Normas ArmonizadasCumplimientoComisión Europea
Fuente oficial: Art. 41 Reglamento (UE) 2024/1689

Sistema de Vigilancia Poscomercialización

Supervisión

Actividades sistemáticas realizadas por proveedores para recopilar y revisar experiencias obtenidas del uso de sistemas de IA que han comercializado. Incluye análisis de quejas, fallos, incidentes y feedback de deployers. Obligatorio para sistemas de alto riesgo.

ProveedorIncidente GravePlan de Vigilancia
Fuente oficial: Art. 72 Reglamento (UE) 2024/1689

¿Necesitas ayuda con el cumplimiento?

Evalúa tu sistema de IA o conecta con profesionales verificados

Evaluar mi IA
AICONTEXT - Understand Your AI Use