La conversación regulatoria sobre inteligencia artificial ha dejado de ser teórica. La Agencia Española de Protección de Datos (AEPD) ha aclarado que ya puede supervisar y actuar frente a tratamientos de datos personales realizados mediante sistemas de IA, incluido el uso de sistemas de IA prohibidos cuando afectan al derecho fundamental a la protección de datos. Esto sucede en paralelo al calendario de la Ley de IA de la UE (Reglamento 2024/1689), que activa distintos bloques de obligaciones entre 2025 y 2026.
La Ley de IA entró en vigor el 1 de agosto de 2024, con una aplicación escalonada:
2 de agosto de 2025: empezaron a aplicarse algunos bloques iniciales. entra en vigor el régimen supervisor y sancionador para prácticas prohibidas (art. 5).
2 de agosto de 2026: la normativa será plenamente aplicable para el resto de obligaciones (proveedores, desplegadores, transparencia, etc.).
Traducción operativa: 2025 es el año de cortar prácticas prohibidas y de preparar evidencia de cumplimiento; 2026 te exigirá tener maduro tu programa de gobernanza de IA.
El Reglamento de IA establece una lista de prácticas de alto daño social completamente vetadas en la Unión. Entre ellas destaca la identificación biométrica remota en tiempo real en espacios públicos con fines de aplicación de la ley (con excepciones tasadas), técnicas que manipulen subliminalmente a personas, explotación de vulnerabilidades de grupos específicos o sistemas de clasificación social.
Para las empresas, esto tiene dos derivadas inmediatas:
Como referencia práctica sobre biometría, puedes consultar nuestros análisis sobre reconocimiento facial en gimnasios, el control horario con biometría en el sector laboral (registro biométrico y control horario y huella dactilar en el registro laboral), así como casos polémicos de captura del iris, como Worldcoin en España y el debate sobre el escaneo de iris y criptomonedas.
El 15 de julio de 2025, la AEPD publicó una nota recordando dos ideas clave. Primero, que el régimen supervisor y sancionador aplicable a los sistemas de IA prohibidos (art. 5 del RIA) empieza a operar en la UE a partir del 2 de agosto de 2025. Segundo, que aunque España no haya culminado aún su ley nacional de IA, la AEPD mantiene competencia plena en protección de datos: puede abrir actuaciones, inspeccionar y sancionar tratamientos de datos personales que utilicen IA, cuando vulneren el RGPD/LOPDGDD, incluso si se trata de prácticas recogidas como prohibidas por el propio Reglamento de IA.
Dicho de forma práctica: si tu organización procesa datos personales con algoritmos o modelos (internos o de terceros), la AEPD puede pedirte explicaciones hoy. Y si el uso encaja en un supuesto prohibido —por ejemplo, identificación biométrica remota en tiempo real en espacios públicos— la exposición a sanción se multiplica. Puedes revisar la nota oficial aquí: AEPD: “ya puede actuar ante sistemas de IA”.
En España se prevé que la AESIA (Agencia Española de Supervisión de la IA) asuma funciones de vigilancia de mercado del RIA, pero hasta que la ley nacional consolide este reparto, la AEPD conserva —y ejerce— su competencia en protección de datos. En la práctica, veremos coordinación: AESIA para vigilancia de producto/mercado del RIA y AEPD cuando haya tratamientos personales, con especial foco en biometría, menores, vigilancia, telecomunicaciones y administraciones públicas.
Aunque tu uso de IA no sea “prohibido”, la AEPD puede solicitarte pruebas de cumplimiento RGPD en cualquier momento. Lo más habitual:
El AI Act prevé sanciones muy superiores a las del RGPD para infracciones relativas a prácticas prohibidas: hasta 35 millones de euros o el 7 % de la facturación anual mundial, lo que sea mayor.
Para otras obligaciones, los topes descienden (por ejemplo, 15 millones o el 3 %). Esto implica que una mala decisión técnica (p. ej., activar reconocimiento facial en vivo en una tienda sin base legal ni garantías) puede convertirse en un riesgo existencial para una PYME o en un incidente reputacional/global para una gran empresa.
Antes de entrar al detalle, una recomendación: identifica cuál de tus casos de uso puede tener efectos significativos sobre personas (empleados, clientes, usuarios) y valida si cae en alto riesgo o roza la prohibición.
A partir de ahí, ejecuta EIPD, ajusta base jurídica y documenta la supervisión humana.
Si utilizas huella, reconocimiento facial u otros rasgos biométricos para fichaje o acceso, debes justificar la base jurídica, realizar EIPD y aplicar medidas reforzadas. Evita cualquier identificación remota en tiempo real en espacios públicos: es terreno de prohibición. Para profundizar, revisa nuestros análisis sobre huella dactilar y RGPD y reconocimiento facial en gimnasios.
Modelos de propensión y riesgo pueden afectar significativamente a personas (p. ej., denegar un servicio). Revisa si hay decisiones automatizadas con efectos jurídicos y habilita intervención humana, explicaciones y mecanismos de reclamación.
La transparencia y, en su caso, el etiquetado de contenidos generados por IA escalarán con el calendario del RIA. Planifica procedimientos y avisos para 2026, incluyendo marcas legibles por máquinas y avisos visibles para humanos.
Monitorización intensiva o análisis emocional en el trabajo son áreas de alto riesgo y, en determinadas configuraciones, colindan con prácticas prohibidas. Requieren EIPD y salvaguardas estrictas, o su abandono si el diseño resulta incompatible. Si además empleas videovigilancia, te interesa repasar qué es legal y qué no en cámaras de videovigilancia y, fuera del centro de trabajo, las dashcams y su régimen sancionador: multas por la cámara del coche. Para comunicaciones internas, cuidado con la fricción en canales no formales: mira nuestro análisis de grupos de WhatsApp en el trabajo.
Lo no documentado no existe a ojos de la AEPD. La clave del cumplimiento es la accountability: poder acreditar qué hacemos, por qué es lícito y cómo lo controlamos. Por eso necesitamos evidencias audit-ready que muestren trazabilidad de modelos y datos (logs, versionado, lineage), EIPD con decisiones firmadas, transparencia efectiva y contratos que respalden el ciclo de vida de la IA. Con esta base, cualquier requerimiento se responde en horas y no en semanas, reduciendo riesgo regulatorio y operativo.
Cierra lo esencial y evita sustos: corta cualquier uso que roce la prohibición, documenta lo que mantienes (EIPD, transparencia, contratos) y asegúrate de tener trazabilidad (logs, versionado) lista para la AEPD.
Si dudas con biometría o decisiones automatizadas, mejor parar y revisar antes de seguir. ¿Lo vemos juntos?
La factura electrónica obligatoria ya no es una tendencia: es una realidad que afectará a…
Una resolución que marca tendencia. La Agencia Española de Protección de Datos (AEPD) ha ratificado…
AEPD lo deja claro: DNI sin copias en hoteles Cada verano se repite la misma…
El avance de la digitalización ha traído consigo nuevas formas de trabajar y de comunicarnos.…
La tecnología de reconocimiento facial ha ganado terreno en múltiples sectores, desde la seguridad hasta…
Registro biométrico y control horario: prohibición, multas y alternativas El control horario de los trabajadores…