Control sobre IA Generativa
Transparencia y obligaciones en modelos de propósito general (GPAI)
El EU AI Act establece reglas específicas para modelos de IA de propósito general (GPAI), especialmente aquellos con capacidades generativas como GPT, Claude, Gemini, etc. Estos modelos requieren transparencia, respeto al copyright y gestión de obligaciones adicionales.
¿Qué es un modelo GPAI?
Un modelo de IA de propósito general (General Purpose AI) es un sistema entrenado con grandes cantidades de datos que puede realizar una amplia variedad de tareas sin estar diseñado para un uso específico. Ejemplos: GPT-4, Claude, Gemini, LLaMA.
Obligaciones de transparencia
Los proveedores de modelos GPAI deben publicar documentación técnica detallada, incluyendo: arquitectura del modelo, datos de entrenamiento, capacidades y limitaciones, medidas de mitigación y consumo energético.
Respeto al copyright
Los modelos GPAI deben respetar la legislación de derechos de autor. Los proveedores deben publicar un resumen suficientemente detallado del contenido utilizado para el entrenamiento, permitiendo a los titulares de derechos ejercer sus derechos.
Capacidades de alto impacto
Los modelos GPAI con capacidades de alto impacto deben realizar evaluaciones, implementar medidas de mitigación, realizar pruebas adversarias y reportar incidentes graves a las autoridades.
Ejemplos de posibles casos de uso
Escenarios hipotéticos de aplicación del AI Act a IA generativa
Ejemplo 1: Startup usando ChatGPT API
Startup de HealthTech
Situación:
Una startup española desarrolla una app de salud mental que usa ChatGPT API para generar respuestas a usuarios. La app recopila datos sensibles (emociones, síntomas).
Referencia regulatoria:
El AI Act incluye sistemas en salud en el Anexo III, lo que implica requisitos reforzados para quienes los despliegan en este contexto.
Obligaciones:
- Documentación técnica del sistema completo
- Gestión de riesgos específica para salud mental
- Supervisión humana obligatoria
- Transparencia con usuarios sobre uso de IA
- Registro en base de datos de la UE
Error común:
La startup no tenía claro que, aunque no desarrolla el modelo GPAI, sí es responsable del sistema que despliega en un contexto sensible.
Ejemplo 2: E-commerce con IA generativa para descripciones
Tienda online de moda
Situación:
Una tienda online usa IA generativa (Jasper AI, basado en GPT) para crear descripciones de productos automáticamente. No recopila datos personales, solo genera texto marketing.
Referencia regulatoria:
No encaja en las categorías del Anexo III, pero debe cumplir obligaciones de transparencia para contenido generado por IA.
Obligaciones:
- Informar a usuarios que el contenido es generado por IA
- Asegurar que el contenido generado no infringe derechos de autor
- Implementar medidas para detectar contenido ilegal o engañoso
Error común:
La tienda no señaliza que el contenido es generado por IA, lo que puede incumplir obligaciones de transparencia.
Ejemplo 3: Empresa desarrollando su propio modelo GPAI
BigTech europea
Situación:
Una empresa europea desarrolla su propio modelo de lenguaje grande (LLM) con 100B parámetros y lo ofrece como API a terceros.
Referencia regulatoria:
El Art. 51 contempla obligaciones adicionales para modelos GPAI con capacidades de alto impacto.
Obligaciones:
- Evaluación de impactos sistémicos (desinformación, ciberseguridad)
- Pruebas adversarias (red teaming)
- Documentación técnica completa (arquitectura, datos, mitigaciones)
- Resumen de datos de entrenamiento para copyright
- Reporte de incidentes graves a autoridades
Error común:
La empresa no documenta el origen de los datos de entrenamiento ni ofrece mecanismos de opt-out a titulares de derechos.
¿Tu empresa usa IA generativa?
Explora tu contexto de uso en 5 minutos con nuestro chatbot educativo
Orientación general • No es asesoramiento legal • Consulta con un profesional

