EU AI ACT
Orientación educativa

Enfoque basado en el riesgo

Obligaciones escalables según el impacto de tu sistema de IA

El EU AI Act clasifica los sistemas de IA en cuatro niveles de riesgo. Cuanto mayor el riesgo, más estrictas las obligaciones. Este enfoque permite innovar en casos de bajo riesgo mientras protege derechos fundamentales en casos críticos.

Orientación general
Sin conclusiones legales
Brief en minutos

Riesgo Inaceptable

PROHIBIDO

Sistemas prohibidos que representan una amenaza clara para la seguridad, medios de vida y derechos fundamentales

Alto Riesgo

VALIDACIÓN OBLIGATORIA

Sistemas que afectan significativamente la salud, seguridad o derechos fundamentales

Riesgo Limitado

TRANSPARENCIA REQUERIDA

Sistemas con riesgo de manipulación o falta de transparencia

Riesgo Mínimo

USO LIBRE

Mayoría de sistemas de IA sin impacto en derechos fundamentales

12 ejemplos encontrados

¿En qué nivel está tu sistema de IA?

Autoevalúa tu riesgo en 5 minutos con nuestro chatbot especializado

Información orientativa • No es asesoramiento legal • Consulta con un profesional cualificado

Realizar el primer brief de uso IA
AICONTEXT - Understand Your AI Use