AI Act : Guide Complet pour les Entreprises en Espagne — Obligations, Délais et Sanctions au titre du Règlement UE sur l'IA
Le règlement européen sur l'IA (AI Act) est en vigueur. Découvrez si votre entreprise est concernée, quelles obligations s'appliquent selon le niveau de risque, et quelles sont les sanctions en cas de non-conformité.
Évaluer le niveau de risque de mes systèmes d'IA- REAF
- ICAM
- 5 Bureaux en Espagne
- 25+ Ans
- 30+ Juridictions
Le problème
Le Règlement (UE) 2024/1689, connu sous le nom d'AI Act, est entré en vigueur le 1er août 2024 et s'applique progressivement selon le niveau de risque des systèmes d'IA. Les pratiques d'IA interdites sont applicables depuis le 2 février 2025. Les obligations relatives aux systèmes d'IA à haut risque s'appliquent à partir du 2 août 2026. Les obligations relatives aux modèles d'IA à usage général (GPAI) sont en vigueur depuis août 2025. Le problème auquel font face la plupart des entreprises en Espagne est triple : elles ne savent pas si leurs systèmes d'IA entrent dans le champ d'application du règlement, elles ne savent pas comment classifier le niveau de risque des systèmes qu'elles utilisent ou déploient, et elles ne connaissent pas les obligations pratiques qui leur incombent. Une mauvaise classification du risque peut signifier soit ignorer des obligations critiques, soit faire face à des amendes pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial pour les violations les plus graves. L'AI Act ne concerne pas uniquement les entreprises qui développent des systèmes d'IA. Il concerne toutes les entreprises qui déploient des systèmes d'IA tiers dans des processus critiques — recrutement, scoring de crédit, gestion d'infrastructures critiques — et celles qui utilisent des systèmes d'IA pour prendre ou soutenir des décisions ayant un impact significatif sur les individus. Le champ d'application est considérablement plus large que ce que la plupart des entreprises supposent.
Notre solution
BMC propose un service de conformité AI Act qui part de la situation actuelle de votre entreprise. Nous commençons par un inventaire des systèmes d'IA et une classification des risques selon les critères du règlement, nous procédons ensuite à une analyse des lacunes par rapport aux obligations applicables, et nous développons le cadre de gouvernance de l'IA dont l'entreprise a besoin pour une conformité durable. Notre équipe interdisciplinaire combine des juristes spécialisés dans la réglementation technologique et la protection des données avec des experts en gouvernance de l'IA qui comprennent à la fois la dimension technique — comment fonctionnent les systèmes d'IA, comment ils sont documentés, comment ils sont audités — et la dimension juridique — quelles obligations impose le règlement, comment démontrer la conformité, quels registres doivent être maintenus. Nous intégrons la conformité AI Act avec le RGPD (les systèmes d'IA traitant des données personnelles génèrent des obligations au titre des deux cadres), avec les normes harmonisées que la Commission européenne est en train d'élaborer, et avec les cadres internationaux de gouvernance de l'IA tels que le NIST AI RMF.
Comment nous procédons
Inventaire et classification des systèmes d'IA
Nous identifions tous les systèmes d'IA que l'entreprise développe, déploie ou utilise dans ses processus et les classifions selon les quatre niveaux de risque de l'AI Act : inacceptable (interdit), haut risque, risque limité et risque minimal. La classification détermine les obligations applicables à chaque système et leur degré d'urgence.
Analyse des lacunes de conformité
Pour chaque système d'IA à haut risque identifié, nous évaluons la conformité avec les obligations du règlement : données d'entraînement et données d'entrée, documentation technique, transparence et explicabilité, supervision humaine, précision et robustesse, cybersécurité du système, journalisation des événements et auditabilité.
Feuille de route de conformité
Nous élaborons une feuille de route priorisée pour atteindre la conformité : documentation technique des systèmes, évaluation de la conformité, enregistrement dans la base de données européenne des systèmes d'IA à haut risque, mise en place des contrôles de supervision humaine, et adaptation des contrats avec les fournisseurs d'IA.
Cadre de gouvernance de l'IA
Nous mettons en place le cadre organisationnel de gouvernance de l'IA : politique d'utilisation de l'IA, processus d'évaluation des nouveaux systèmes avant déploiement, rôles et responsabilités (y compris, le cas échéant, le rôle d'AI Officer), formation du personnel, et mécanismes de suivi et de révision périodiques du cadre.
Téléchargez notre guide
Télécharger notre outil d'auto-évaluation AI Act : classifiez le niveau de risque de vos systèmes d'IA en 15 minutes
L’AI Act : le premier cadre juridique mondial basé sur les risques pour l’IA
Le Règlement (UE) 2024/1689 sur l’intelligence artificielle, en vigueur depuis le 1er août 2024, est le premier cadre juridique complet au monde pour l’intelligence artificielle. Contrairement aux approches sectorielles antérieures, l’AI Act adopte une perspective horizontale fondée sur les risques : plus le risque potentiel d’un système d’IA pour les droits fondamentaux, la santé et la sécurité est élevé, plus les obligations imposées à ceux qui le développent ou le déploient sont importantes.
Le règlement est directement applicable dans tous les États membres de l’UE sans nécessiter de transposition nationale, ce qui signifie que ses obligations s’appliquent également en Espagne, indépendamment de l’adoption d’une législation nationale d’application. La seule exception pertinente concerne les pleins pouvoirs d’exécution de l’autorité nationale de surveillance (AESIA), qui nécessitent un cadre législatif national.
Calendrier d’application de l’AI Act : ce qui est déjà obligatoire
L’AI Act ne s’applique pas d’un seul coup. Il entre en vigueur de manière échelonnée, ce qu’il est important de comprendre :
1er août 2024 — Entrée en vigueur : Le règlement est du droit positif. Les acteurs doivent commencer à se préparer.
2 février 2025 — Interdictions : Les pratiques d’IA inacceptables — manipulation subliminale, notation sociale, reconnaissance des émotions sur le lieu de travail et dans l’enseignement, identification biométrique en temps réel sans exceptions — sont interdites à compter de cette date. Toute entreprise exploitant ces systèmes aurait dû les arrêter.
2 août 2025 — GPAI : Les modèles d’IA à usage général ont des obligations de documentation, de transparence et de droit d’auteur à compter de cette date.
2 août 2026 — Systèmes à haut risque (Annexe III) : Les systèmes d’IA à haut risque mis sur le marché à compter de cette date doivent respecter toutes les obligations du Chapitre III avant leur déploiement.
2 août 2027 — Systèmes à haut risque intégrés (Annexe I) : Les systèmes d’IA à haut risque qui sont des composants de produits déjà réglementés par d’autres directives de l’UE (machines, dispositifs médicaux, produits aéronautiques) disposent d’une année supplémentaire pour s’adapter.
Les quatre niveaux de risque et leurs implications pratiques
L’AI Act classe les systèmes d’IA en quatre catégories de risque, chacune avec un régime d’obligations différent :
Risque inacceptable (interdit) : Systèmes interdits car portant une atteinte inacceptable aux droits fondamentaux. Aucune entreprise ne peut les exploiter. Si un processus interne utilise des techniques de ce type, il aurait dû être modifié avant février 2025.
Haut risque : Systèmes ayant un impact potentiel significatif sur les individus dans des domaines critiques. Les plus réglementés : documentation technique obligatoire, évaluation de la conformité, enregistrement européen, supervision humaine obligatoire. Le catalogue de l’Annexe III comprend des situations que de nombreuses entreprises de secteurs non technologiques n’ont peut-être pas identifiées comme de l’« IA à haut risque » — comme les outils de tri de CV ou les systèmes de scoring de crédit.
Risque limité : Systèmes qui interagissent avec des personnes — chatbots, contenus générés par l’IA — avec des obligations de transparence : les utilisateurs doivent savoir qu’ils interagissent avec l’IA, que le contenu est généré par l’IA, ou que leur image ou leur voix a été manipulée par l’IA (deepfakes).
Risque minimal : La grande majorité des applications d’IA — filtres anti-spam, recommandations de contenu, outils de productivité IA — relèvent de cette catégorie. Elles n’ont pas d’obligations spécifiques au titre de l’AI Act.
La dimension protection des données : AI Act et RGPD ensemble
Les systèmes d’IA à haut risque traitant des données personnelles déclenchent des obligations au titre de l’AI Act et du RGPD simultanément. Le point d’intersection le plus important est l’Analyse d’Impact relative à la Protection des Données (AIPD) que le RGPD requiert pour les traitements de données personnelles à haut risque.
Selon les orientations de l’AEPD et du Comité européen de la protection des données, l’AIPD d’un système d’IA à haut risque devrait être intégrée à l’évaluation de la conformité AI Act. Cela signifie qu’il ne faut pas mener deux évaluations séparées, mais un processus intégré qui traite à la fois les risques pour les droits et libertés des individus (RGPD) et les risques liés à la sécurité et au fonctionnement du système d’IA (AI Act).
Nos équipes protection des données et conformité AI Act travaillent conjointement pour développer ce processus d’évaluation intégré pour les clients dont les systèmes d’IA à haut risque traitent des données personnelles.
Questions fréquentes
Services associés
Faites le premier pas
Demandez une consultation sans engagement et découvrez ce que nous pouvons faire pour votre entreprise.