EU AI Act

Europa, la primera ley que regula la IA en el planeta

Liderazgo europeo para una tecnología fiable y centrada en las personas

El Reglamento (UE) 2024/1689, conocido como EU AI Act, es la primera legislación integral del mundo sobre inteligencia artificial. Establece un marco legal vinculante que equilibra la innovación tecnológica con la protección de derechos fundamentales, marcando un estándar global para la regulación de la IA.

Explorar

Datos clave del AI Act

Entrada en vigor
1 de agosto de 2024

Aplicación gradual hasta 2026-2027

Alcance territorial
Efecto extraterritorial

Aplica a empresas fuera de la UE si ofrecen servicios en Europa

Multas máximas
€35M o 7% facturación

Para infracciones graves (sistemas prohibidos)

Impacto global
450M ciudadanos

Protección directa en la UE, efecto indirecto mundial

Primer precedente mundial

¿Por qué es histórico?

Por primera vez en la historia, existe un marco legal completo y vinculante para la IA. Mientras otros países debaten, la UE ya tiene legislación aplicable con sanciones reales. Es el equivalente al GDPR para la privacidad: un estándar que otras jurisdicciones seguirán.

Protección de personas

Enfoque basado en derechos fundamentales

El AI Act no solo regula tecnología, sino que protege derechos: no discriminación, privacidad, dignidad humana, libertad de expresión. Los sistemas de IA que amenacen estos derechos enfrentan prohibiciones o regulación estricta.

Enfoque pragmático

Regulación proporcional

No toda IA está regulada igual. El AI Act diferencia niveles de exigencia según el caso: prácticas prohibidas en Art. 5, supuestos del Anexo III con requisitos adicionales, transparencia para sistemas que interactúan con personas y usos de mínima intervención. Esto permite innovar sin burocracia innecesaria.

Impacto global

Efecto Bruselas

Como ocurrió con el GDPR, el AI Act se convertirá en el estándar de facto mundial. Empresas globales (Google, Microsoft, OpenAI) ya adaptan sus productos para cumplir. Otros países (UK, Canadá, Brasil) están diseñando leyes similares.

Cronología de aplicación

Implementación gradual del AI Act

1 agosto 2024

Entrada en vigor

El Reglamento se publica oficialmente en el Diario Oficial de la UE

2 febrero 2025

Prohibiciones activas

Art. 5: Sistemas prohibidos (puntuación social, manipulación subliminal, etc.) son ilegales

2 agosto 2025

Códigos de conducta

Proveedores de modelos GPAI deben publicar documentación técnica y respetar copyright

2 agosto 2026

Sistemas del Anexo III (nuevos)

Nuevos sistemas bajo Anexo III deben cumplir requisitos completos (requisitos regulatorios, RLS, logs)

2 agosto 2027

Sistemas del Anexo III (existentes)

Sistemas ya desplegados bajo Anexo III deben adaptarse al AI Act

Ejemplos de posibles casos de uso

Escenarios hipotéticos para entender cómo aplica el AI Act

1

Ejemplo 1: Startup española de IA en salud

HealthAI (nombre ficticio)

Situación:

Una startup española desarrolla una app de IA para detectar enfermedades de la piel a partir de fotos. La app usa un modelo de visión por computadora entrenado con imágenes médicas. Planean lanzar en España, Francia y Alemania.

❌ Antes del AI Act:

Antes del AI Act, la startup podría lanzar sin requisitos regulatorios específica para IA, solo cumpliendo regulación de apps médicas (CE médico). No había obligación de documentar el modelo de IA, sus sesgos, o cómo toma decisiones.

✓ Con el AI Act:

Con el AI Act, la app encaja en supuestos del Anexo III (IA en salud). La startup DEBE: 1) requisitos regulatorios CE específicos para IA, 2) documentación técnica del modelo (datos, arquitectura, sesgos), 3) sistema de gestión de riesgos, 4) logs de decisiones, 5) supervisión humana (médico valida), 6) registro en base de datos UE.

💡 Impacto:

Coste adicional: €50K-100K en requisitos regulatorios. Tiempo: 6-12 meses. Pero BENEFICIO: confianza de usuarios, acceso a toda la UE con una sola requisitos regulatorios, ventaja competitiva frente a startups no certificadas.

Error común:

ERROR COMÚN: La startup pensaba que al ser 'solo una sugerencia' no estaba en el Anexo III. FALSO: cualquier sistema que influya en decisiones médicas puede quedar incluido, incluso si un humano toma la decisión final.

2

Ejemplo 2: Multinacional usando IA para RRHH

TechCorp (nombre ficticio)

Situación:

Una multinacional tecnológica usa IA para filtrar CVs automáticamente. El sistema analiza 10,000 CVs/mes y selecciona los 100 mejores para entrevistas. Operan en 15 países, incluyendo España, Francia, Alemania.

❌ Antes del AI Act:

Antes del AI Act, la empresa usaba el sistema sin revisión de sesgo. El algoritmo había aprendido patrones históricos (más hombres en tech) y discriminaba sutilmente por género. No había transparencia: candidatos no sabían que IA decidía.

✓ Con el AI Act:

Con el AI Act, el sistema encaja en supuestos del Anexo III (IA en empleo). La empresa DEBE: 1) revisión de sesgo por tercero independiente, 2) datos de entrenamiento representativos (sin sesgo de género/raza), 3) transparencia: informar a candidatos que IA filtra, 4) derecho a revisión humana, 5) logs de decisiones (trazabilidad), 6) registro en base de datos UE.

💡 Impacto:

La revisión reveló sesgo de género (30% menos mujeres seleccionadas). La empresa tuvo que re-entrenar el modelo con datos balanceados. Coste: €200K. Pero BENEFICIO: evitaron demandas por discriminación, mejoraron diversidad, cumplieron GDPR + AI Act.

Error común:

ERROR COMÚN: La empresa pensaba que al ser 'solo un filtro inicial' no estaba en el Anexo III. FALSO: sistemas de IA que afectan acceso a empleo pueden quedar incluidos, incluso si hay revisión humana posterior.

3

Ejemplo 3: E-commerce con chatbot de atención al cliente

ShopOnline (nombre ficticio)

Situación:

Una tienda online implementa un chatbot con GPT-4 para responder preguntas de clientes sobre productos, devoluciones y pedidos. El chatbot NO toma decisiones críticas (no aprueba reembolsos, no cancela pedidos), solo informa.

❌ Antes del AI Act:

Antes del AI Act, la tienda podía implementar el chatbot sin informar que es IA. Muchos clientes pensaban que hablaban con humanos. No había obligación de transparencia.

✓ Con el AI Act:

Con el AI Act, el chatbot entra en obligaciones de transparencia (Art. 50: sistemas que interactúan con personas). La tienda DEBE: 1) informar claramente que es IA ('Estás hablando con un asistente de IA'), 2) opción de contactar con humano, 3) no puede engañar al usuario haciéndose pasar por humano.

💡 Impacto:

Coste: mínimo (solo cambiar UI para mostrar 'IA'). Tiempo: 1 día. BENEFICIO: cumplimiento legal, transparencia con clientes, evita multas (hasta €15M por falta de transparencia).

Error común:

ERROR COMÚN: La tienda pensaba que al usar GPT-4 (modelo de OpenAI), la responsabilidad era de OpenAI. FALSO: el 'deployer' (quien usa el modelo) es responsable de cumplir Art. 50 (transparencia).

AI Act vs otras regulaciones

GDPR (Privacidad)

Complementario

El AI Act NO reemplaza GDPR. Ambos aplican: GDPR protege datos personales, AI Act regula sistemas de IA. Si tu IA usa datos personales, debes cumplir AMBOS.

Regulación de productos (CE)

Integrado

Sistemas de Alto Riesgo requieren requisitos regulatorios CE específica para IA. Se integra con requisitos regulatorios existentes (médica, industrial, etc.).

Regulación sectorial (salud, finanzas)

Adicional

El AI Act se suma a regulaciones sectoriales. Ejemplo: IA médica debe cumplir AI Act + regulación de dispositivos médicos.

USA (sin ley federal)

Contraste

USA no tiene ley federal de IA (solo órdenes ejecutivas y leyes estatales). El AI Act es mucho más completo y vinculante.

¿Tu empresa opera en Europa?

Explora tu contexto de uso de IA en 5 minutos

Orientación general • No determina contexto regulatorio • Requiere revisión profesional