Saltar al contenido

02B — Servicios

Cumplimiento técnico para sistemas IA.

Clasificación EU AI Act, análisis de gap, documentación técnica, evidencias y gobernanza. Convertimos regulación en un plan mantenible por tu equipo, alineado con GDPR, NIS2 e ISO 42001 cuando aplica.

02B — Servicios

AI Compliance

Convertimos obligaciones regulatorias en trabajo técnico accionable: clasificación, evidencias, documentación, controles y responsables. Sin consultoría eterna, con entregables que tu equipo puede mantener.

  1. CMP.01

    Clasificación EU AI Act

    Identificación del rol, categoría de riesgo y obligaciones aplicables para sistemas IA en uso o desarrollo.

  2. CMP.02

    Gap regulatorio y plan de cumplimiento

    Análisis contra EU AI Act, GDPR y NIS2 con hitos, responsables y prioridades realistas.

  3. CMP.03

    Documentación técnica y evidencias

    Fichas de sistema, registros de riesgo, controles, trazabilidad y material preparado para auditoría.

  4. CMP.04

    Gobernanza e ISO 42001

    Procesos de supervisión, revisión post-mercado y alineación con sistemas de gestión de IA.

03 — Por qué ahora

Cinco hitos regulatorios que ya marcan el roadmap.

AI Act, prácticas prohibidas en vigor, modelos de uso general, jurisprudencia sobre responsabilidad y estándares certificables.

  • 01 · Régimen general2026.08

    EU AI Act: obligaciones plenas el 2 de agosto de 2026.

    Hasta 35M€ o el 7% de la facturación global en multas. Anexo III, transparencia del Art. 50 y resto del articulado dejan de ser opcionales. La clasificación, documentación y registro de los sistemas de alto riesgo es un proyecto multidisciplinar, no una checklist.

    EUR-Lex · Reglamento 2024/1689
  • 02 · Prácticas prohibidas2025.02

    Las prohibiciones del Art. 5 ya son aplicables.

    En vigor desde el 2 de febrero de 2025. Manipulación subliminal, scoring social, scraping facial no selectivo, reconocimiento de emociones en trabajo o educación y categorización biométrica sensible. Es la franja sancionatoria más alta del Reglamento.

    EUR-Lex · Art. 5
  • 03 · Modelos de uso general2025.08

    Las obligaciones para modelos GPAI ya están vigentes.

    Art. 51-56 — aplicable desde el 2 de agosto de 2025. Documentación técnica (Anexo XI), información a aguas abajo (Anexo XII), política de copyright y resumen de datos de entrenamiento. Por encima de 10²⁵ FLOPs, riesgo sistémico y red-teaming obligatorio.

    EUR-Lex · Capítulo V
  • 04 · Responsabilidad2024.02

    Los tribunales: la empresa responde por lo que dice su chatbot.

    Caso Moffatt v. Air Canada — precedente vinculante. El tribunal rechazó que la IA fuera una entidad separada de la empresa. Sin guardrails auditados y registro de decisiones, cada salida del modelo expone capital y reputación.

    Civil Resolution Tribunal
  • 05 · Estándares2024

    ISO/IEC 42001 es ya el sistema de gestión de IA de referencia.

    Primer estándar internacional certificable para gobernanza de IA. Encaja con la gestión de riesgos del Art. 9 del AI Act y con NIS2 para entidades esenciales. Adoptarlo facilita demostrar diligencia ante reguladores, auditores y compradores B2B.

    ISO/IEC 42001:2023

04 — Casos de uso

Lo que hacemos.

Ejemplos de proyectos tipo en los dos frentes en los que trabajamos. Si tu situación se parece a alguno, probablemente podamos ayudarte.

AI Compliance · Regulación

Clasificación EU AI Act para sistemas en producción

Problema
Empresas que ya usan IA pero no tienen claro su rol, categoría de riesgo ni obligaciones antes de agosto de 2026.
Cómo lo hacemos
Clasificación del sistema, mapa de obligaciones, criterios de evidencia y plan de cumplimiento con responsables.

Clientes tipo

Scaleups, pymes industriales, SaaS, empresas con IA en atención, RRHH u operaciones.

¿Un caso parecido al tuyo? Hablemos →

AI Compliance · Documentación

Paquete de documentación técnica y evidencias

Problema
Equipos que necesitan demostrar cómo funciona su sistema IA, qué riesgos controla y qué trazabilidad mantiene.
Cómo lo hacemos
Fichas de sistema, registro de riesgos, controles, logs requeridos, matriz de responsabilidades y documentación preparada para auditoría.

Clientes tipo

Empresas reguladas, proveedores tecnológicos, agencias que entregan soluciones IA a terceros.

¿Un caso parecido al tuyo? Hablemos →

AI Compliance · Gobernanza

Alineación GDPR, NIS2 e ISO 42001

Problema
Sistemas IA que tratan datos personales, operan en entornos críticos o necesitan encajar en un sistema de gestión formal.
Cómo lo hacemos
Revisión de privacidad, seguridad operacional, supervisión humana, responsabilidades internas y proceso de revisión post-mercado.

Clientes tipo

Healthtech, fintech, legaltech, empresas medianas y equipos preparando auditorías.

¿Un caso parecido al tuyo? Hablemos →

Preguntas frecuentes

¿Qué obliga el EU AI Act a las empresas españolas?

El EU AI Act impone obligaciones diferenciadas según el rol de la empresa (proveedor, desplegador o importador) y la categoría de riesgo del sistema. Los sistemas de alto riesgo —en ámbitos como RRHH, crédito, atención sanitaria o infraestructuras críticas— exigen evaluación de conformidad, documentación técnica, registro en la base de datos de la UE, supervisión humana y gestión de riesgos. Los sistemas de riesgo limitado tienen obligaciones de transparencia más ligeras. Las aplicaciones prohibidas, como la puntuación social generalizada o la manipulación subliminal, quedan directamente vetadas.

¿Cuándo entra en vigor el EU AI Act?

El EU AI Act entró en vigor el 1 de agosto de 2024 con un calendario de aplicación progresiva. Las prácticas prohibidas son aplicables desde el 2 de febrero de 2025. Las obligaciones para sistemas de alto riesgo se aplican plenamente a partir del 2 de agosto de 2026. Las sanciones por incumplimiento pueden alcanzar los 35 millones de euros o el 7% de la facturación global anual, lo que sea mayor.

¿Qué es un sistema de IA de alto riesgo según el EU AI Act?

El EU AI Act clasifica como de alto riesgo los sistemas de IA utilizados en ocho ámbitos: infraestructuras críticas, educación, empleo y gestión de trabajadores, acceso a servicios esenciales (crédito, seguros), aplicación de la ley, gestión de fronteras, administración de justicia y procesos democráticos. También son de alto riesgo los sistemas que constituyen componentes de seguridad de productos regulados por normativas sectoriales europeas. La clasificación determina el conjunto completo de obligaciones aplicables.

¿Qué documentación técnica exige el EU AI Act para sistemas de alto riesgo?

El EU AI Act exige que los proveedores de sistemas de alto riesgo mantengan documentación técnica que incluya: descripción del sistema y su finalidad prevista, datos de entrenamiento y metodología de evaluación, métricas de rendimiento y umbrales de precisión, medidas de supervisión humana, análisis de riesgos y planes de mitigación, instrucciones de uso y registro de cambios. Esta documentación debe estar disponible para las autoridades de supervisión durante el ciclo de vida del sistema.

¿Qué multas prevé el EU AI Act por incumplimiento?

El EU AI Act establece tres niveles de sanción: hasta 35 millones de euros o el 7% de la facturación global anual por uso de prácticas prohibidas; hasta 15 millones de euros o el 3% de la facturación por incumplimiento de otras obligaciones del reglamento; y hasta 7,5 millones de euros o el 1,5% de la facturación por proporcionar información incorrecta a las autoridades. Las sanciones para pymes y startups se calculan sobre el importe que resulte menor entre el porcentaje sobre facturación y el importe fijo.

Formación a medida

¿Quieres que tu equipo aprenda a hacer esto?

Hacemos formación técnica a medida, no cursillos abiertos. Cada curso lo diseñamos para el caso del cliente: clasificación EU AI Act, documentación técnica exigible y gobernanza para equipos de ingeniería, compliance y legal, con el alcance que pida el equipo.

Hablemos de tu sistema de IA.

Respondemos en 24 – 48 horas laborables. Te proponemos una primera llamada para entender tu caso.

[email protected]
Escríbenos