Logo MDP Data Protection avec clé rouge sur fond transparent

Bureaux

425 rue Jean Rostand 31670 Labège

Nous écrire

ask@mdp-data.com

Nous appeler

+33 5 61 60 16 67

L’AI Act transforme l’IA en sujet de conformité, pas seulement d’innovation.

L’AI Act est le règlement européen (UE2024/1689) qui encadre les systèmes d’Intelligence Artificielle (IA) selon une approche fondée sur les risques et impose des obligations graduées aux organisations.

Ses exigences concernent les fournisseurs et les déployeurs, avec des impacts directs sur la gouvernance, la documentation, la gestion des risques et la transparence des usages en entreprise.

Cet article détaille les obligations de l’AI Act par niveau de risque, le calendrier d’application, ainsi que les actions prioritaires pour structurer une mise en conformité opérationnelle.

Contexte et enjeux : pourquoi l’AI Act existe

L’AI Act vise un double objectif :

  1. consolider le marché intérieur en harmonisant les règles applicables à l’intelligence artificielle,
  2. réduire les risques pour la santé, la sécurité, la démocratie et les droits fondamentaux.

La Commission rappelle l’entrée en vigueur au 1 août 2024 et une application progressive jusqu’au 2 août 2027, avec des jalons réglementaires intermédiaires. Pour ce faire, elle met à disposition une plateforme d’information pour rechercher et comprendre les implications des différents articles du Règlement.

Le cœur du dispositif : des règles plus strictes lorsque le système a un impact élevé (emploi, santé, éducation, services essentiels, biométrie, etc.) et un renforcement du contrôle lorsque l’IA influence des décisions sensibles.

Enfin, l’AI Act structure clairement les rôles : fournisseurs (providers) et déployeurs (deployers) n’ont pas les mêmes obligations, ce qui oblige à revoir contrats, responsabilités, et procédures internes.

Pourquoi les entreprises sont concernées ?

Ainsi, l’AI Act est le règlement européen établissant des règles harmonisées sur l’IA. Il s’applique à de nombreux opérateurs : fournisseurs, déployeurs, importateurs, distributeurs, et dans certains cas représentants autorisés.

Une entreprise française peut être concernée, même sans développer elle-même une IA :

  • Vous déployez un outil (RH, CRM, e-learning, détection fraude, support) intégrant de l’IA.
  • Vous achetez une solution d’un éditeur : vous devez vérifier le niveau de risques et vos obligations de déployeur.
  • Vous intégrez un modèle IA “généraliste” (GPAI) dans un système métier : l’AI Act impose un nouveau niveau de gestion de la documentation et du contrôle des sorties.

La conformité ne se limite donc pas à l’adoption d’une charte interne. Elle suppose la production de preuves vérifiables (dossiers techniques, tests, journaux d’activité, procédures, mesures de protection) ainsi qu’un niveau minimal de formation des équipes (AI literacy), conformément au calendrier d’application du règlement.

Obligations AI Act par niveau de risque : la logique à retenir

L’AI Act classe les cas d’usage selon une approche “risk-based” : plus l’impact est élevé, plus les exigences (et preuves) montent. Ce n’est pas une simple auto-déclaration : pour le haut risque, la conformité passe par documentation, gestion des risques, exigences sur les données, traçabilité, et évaluation de conformité.

Niveau de risqueObligations principalesPreuves attendues (exemples)Sanctions
Inacceptable (interdit)Interdiction d’usage (avec exceptions très encadrées selon cas)Décision de non-déploiement, registre d’arbitrage, contrôles d’achat/ITAmendes administratives maximales les plus élevées
Haut risqueExigences essentielles + conformité + marquage CE (selon cas)Dossier technique, analyse de risques, gouvernance données, logs, procédures, preuves de testsAmendes substantielles selon manquements
Transparence (risque limité/spécifique)Information des personnes, étiquetage du contenu généré/manipuléMentions UI/UX, politiques éditoriales, mécanismes de marquageAmendes en cas de non-respect
Risques indirects (RGPD, sécurité)
MinimePas d’exigences spécifiques AI Act (hors autres lois)Bonnes pratiques internes (sécurité, qualité, RGPD si données personnelles)Amendes en cas de non-respect
Risques indirects (RGPD, sécurité)
GPAI / modèles fondamentauxObligations du fournisseur de modèle (docs, copyright, résumé d’entraînement), + obligations renforcées si “risque systémique”Docs (Annexes), politique droit d’auteur, évaluation & cybersécurité, reporting incidentsAmendes en cas de non-respect
Risques indirects (RGPD, sécurité)

 

Flux : Risque minime → Transparence → Haut risque → Risque inacceptable (interdit) → Contrôle renforcé & preuves croissantes

 

Quelles sont les obligations concrètes par niveau de risque ?

Pour le haut risque, l’AI Act impose un socle de conformité vérifiable, centré sur la gestion des risques, la qualité des données, la traçabilité, et la capacité de démontrer la conformité via une documentation maintenue à jour.

  • Gestion des risques sur tout le cycle de vie : processus itératif, tests, mise à jour (article 9),
  • Données & data governance : origine, préparation, biais, représentativité, complétude, mesures correctives (article 10),
  • Documentation technique avant mise sur le marché / mise en service, et tenue à jour (Article 11 – Annexe IV),
  • Journalisation (logs) pour traçabilité et monitoring (article 12),
  • Surveillance humaine : prévenir/minimiser les risques, éviter l’automation bias, capacité d’override/stop (article 14).

À ces exigences s’ajoutent, selon les cas : une évaluation de conformité (procédures internes ou avec organisme notifié)  et un marquage CE pour les systèmes à haut risque concernés. Concrètement, votre contrôle doit produire des livrables auditables, sans exposer inutilement le secret professionnel (accès restreint, need-to-know, gestion des preuves).

Exemple de checklist “avant mise sur le marché / mise en service” 


Objectif : pouvoir prouver la conformité, pas seulement la déclarer.

1) Qualifier le système : niveau de risques, rôle (fournisseur/déployeur), périmètre données.

2) Assembler la documentation : dossier technique + usage prévu + limites + versioning.

3) Mettre en place la gestion des risques : tests, scénarios de mésusage, risques résiduels acceptables.

4) Vérifier la gouvernance données : origine, biais, qualité, sécurité, rétention, accès (y compris secret professionnel).

5) Activer logs, traçabilité, supervision humaine, procédures d’arrêt/override.

6) Déterminer la voie d’évaluation de conformité + marquage CE si applicable.

Modèles d’IA générative et GPAI : quelles nouvelles exigences ?

Les modèles GPAI (General Purpose AI) sont des modèles d’IA à usage général, conçus pour accomplir un large éventail de tâches et pouvant être intégrés dans de multiples systèmes ou applications en aval, indépendamment d’un cas d’usage spécifique initial.

L’AI Act impose des obligations spécifiques aux fournisseurs de modèles GPAI :

  1. Produire une documentation technique du modèle (incluant entraînement, tests, résultats d’évaluation)
  2. Fournir aux intégrateurs des informations permettant un usage conforme
  3. Mettre en place une politique de respect du droit d’auteur
  4. Publier un résumé suffisamment détaillé du contenu utilisé pour l’entraînement.

Pour les modèles GPAI “à risque systémique”, des exigences additionnelles s’appliquent :

  • évaluation selon protocoles de pointe,
  • adversarial testing (soumettre un système d’IA à des scénarios d’attaque ou à des entrées manipulées afin d’identifier ses vulnérabilités, ses biais et ses comportements imprévus avant son déploiement),
  • gestion et atténuation des risques systémiques,
  • reporting d’incidents graves,
  • niveau adéquat de cybersécurité.

Enfin, côté transparence des contenus générés/manipulés (audio/image/vidéo/texte), l’AI Act prévoit des obligations de marquage et de disclosure, en particulier pour les deepfakes et certains contenus d’intérêt public.

Les obligations principales relatives aux modèles GPAI visent d’abord leurs fournisseurs. Toutefois, les entreprises intégrant ces modèles restent responsables de leur usage conforme et documenté.

 

Calendrier d’application de l’AI Act : les dates à retenir (timeline)

L’application est progressive. La Commission synthétise un calendrier clair, avec des dates fixes :

DateCe qui s’appliqueImplication entreprise
2 février 2025Définitions / dispositions générales (dont AI literacy) + interdictionsBloquer les usages interdits, lancer la formation, renforcer le contrôle des achats/outils
2 août 2025Règles GPAI + gouvernance + mise en place autorités / pénalitésExiger des fournisseurs GPAI la documentation et les éléments copyright ; adapter contrats
2 août 2026Majorité des règles + haut risque (Annexe III) + transparence (Article 50)Conformité “démontrable” pour les systèmes haut risque déployés
2 août 2027Haut risque intégré à certains produits régulés (logique Annexe I)Alignement avec les cadres produit (santé, transport, etc.)

Source officielle : AI Act Service Desk — Timeline d’implémentation.

 

Sanctions et responsabilités : ce que vous risquez vraiment

Les sanctions sont administratives, avec des plafonds qui varient selon la gravité.

L’AI Act prévoit notamment des amendes maximales pouvant aller jusqu’à 35 000 000€ ou 7% du chiffre d’affaires mondial annuel (selon la violation, le montant le plus élevé étant retenu), avec d’autres niveaux (ex. 15 000 000 EUR ou 3%, et des montants spécifiques pour informations incorrectes/trompeuses). 

À la différence d’une approche purement RGPD, l’AI Act combine : conformité “produit” (évaluation, marquage CE), obligations organisationnelles (QMS, procédures, formation), et obligations de transparence. Cela impose de clarifier “qui fait quoi” entre fournisseurs, intégrateurs et déployeurs, et de gérer le secret professionnel dans le partage des preuves (contrats, accès aux logs, audits).

 

AI Act et autres réglementations : RGPD, NIS2, cybersécurité

L’AI Act ne remplace pas les autres textes. Il s’empile avec :

  • Le RGPD : dès qu’il y a des données personnelles, vos analyses (base légale, information, droits, minimisation, sécurité) restent obligatoires ; l’AI Act ajoute un niveau “qualité des données / biais / traçabilité” et des obligations de transparence IA (ex. deepfakes) qui peuvent renforcer vos exigences d’information.
  • NIS2 / cybersécurité : l’AI Act exige une approche robuste (notamment pour certains systèmes haut risque et GPAI à risque systémique) et encourage des mécanismes de gestion des incidents, de durcissement et de protection. Par exemple, les modèles GPAI à risque systémique doivent assurer un niveau adéquat de cybersécurité, article 55.

Point clé : évitez les silos. Un même système peut déclencher des obligations RGPD (PIA/AIPD), AI Act (haut risque, transparence) et sécurité (NIS2, exigences internes).

La meilleure stratégie : un référentiel commun de gestion des risques, de documentation, et de contrôle des changements. Avec MDP Data Protection, pilotez efficacement vos obligations RGPD, AI Act et NIS2 au sein d’un même référentiel, la plateforme SimplyRGPD centralise l’audit, la documentation et le suivi de votre conformité multi-réglementaire.

 

Comment structurer une mise en conformité AI Act en entreprise ?

Pour éviter la conformité “papier”, structurez un dispositif outillé et pilotable, centré sur les preuves.

  • Gouvernance interne : sponsor, rôles (juridique, RSSI, DPO, métiers), RACI, arbitrages documentés.
  • Cartographie des usages : où l’IA est utilisée (y compris “Shadow AI”), quelles données, quels fournisseurs, quel niveau de risques.
  • Politique IA : règles d’usage, exigences de protection, secret professionnel, validation des outils, procédures d’escalade.
  • Gestion des risques & conformité : alignée AI Act (Article 9) + data governance (Article 10) + logs (Article 12).
  • Formation : AI literacy, sur les cas d’interdiction, la transparence, les biais, et le bon contrôle des sorties.

Deux leviers pragmatiques pour accélérer :

Pour industrialiser vos livrables, notre plateforme d’audit peut aider à cartographier les risques et à les prioriser. Pour la sensibilisation et la formation continue, un LMS spécialisé réduit la “Shadow AI” en donnant des règles simples et testables, apprenez s’en plus avec  MDP Campus ! 

👉 Pour approfondir ce sujet, découvrez nos articles : Logiciel de conformité IA : anticiper l’IA Act et sécuriser vos usages ! et Conformité IA : comment se mettre en conformité avec l’IA Act.

 

FAQ – Exigences AI Act

Qui est responsable en cas de non-conformité à l’AI Act : fournisseur ou déployeur ?

La responsabilité dépend du rôle défini par le règlement européen.
Le fournisseur assume les obligations de conception, de conformité technique et, le cas échéant, de marquage CE du système d’IA.
Le déployeur doit respecter les obligations d’usage, de contrôle, de transparence et de mise en œuvre des procédures internes.
En pratique, il est essentiel de contractualiser les responsabilités, l’accès aux preuves (documentation, logs, mises à jour, sécurité) et les modalités d’audit, tout en protégeant le secret professionnel.

Quelles sont les sanctions prévues par l’AI Act (montant des amendes et % du chiffre d’affaires) ?

L’AI Act prévoit plusieurs niveaux d’amendes administratives selon la gravité de l’infraction.
Les plafonds peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, le montant le plus élevé étant retenu pour certaines violations graves.
D’autres niveaux existent (15 millions d’euros ou 3 %, notamment).
Les modalités précises d’application sont encadrées par les États membres dans le cadre du règlement européen.

Quelles sont les dates clés d’application de l’AI Act en France et dans l’Union européenne ?

L’application du règlement est progressive :
2 février 2025 : entrée en application des interdictions et dispositions générales (dont AI literacy).
2 août 2025 : obligations relatives aux modèles GPAI et mise en place du cadre de gouvernance.
2 août 2026 : application de la majorité des obligations, notamment pour les systèmes à haut risque (Annexe III) et les exigences de transparence (article 50).
2 août 2027 : intégration complète pour certains systèmes à haut risque liés à des produits réglementés.
Les entreprises doivent anticiper ces échéances pour éviter une mise en conformité tardive ou précipitée.

Comment encadrer la Shadow AI en entreprise au regard de l’AI Act ?

La Shadow AI (usages non déclarés d’outils d’intelligence artificielle par les équipes) doit être traitée comme un risque organisationnel.
Les bonnes pratiques incluent : une cartographie des usages IA ; des règles claires sur les données pouvant être traitées ; des mécanismes de contrôle (SSO, journalisation, validation des outils) ; une formation continue des collaborateurs.
L’objectif n’est pas d’interdire l’IA, mais d’assurer un usage traçable, proportionné et conforme au RGPD et aux exigences de l’AI Act.

Une PME utilisant ChatGPT ou Gemini est-elle concernée par l’AI Act ?

Oui, potentiellement.
Une PME peut être considérée comme déployeur, selon l’usage qu’elle fait d’un outil d’IA générative.
Si l’outil est utilisé pour produire du contenu public, automatiser une relation client ou intégrer un modèle GPAI dans un système métier, l’entreprise doit évaluer le niveau de risque ; respecter les obligations de transparence ; documenter son usage ; assurer la conformité RGPD en cas de traitement de données personnelles.
Les obligations spécifiques aux GPAI visent principalement les fournisseurs du modèle, mais l’entreprise reste responsable de son usage opérationnel et de sa documentation interne.

En résumé

L’AI Act est le règlement européen qui impose des obligations graduées aux entreprises selon le niveau de risque de leurs systèmes d’intelligence artificielle.

Les organisations doivent éliminer les usages interdits, traiter les systèmes à haut risque comme des produits réglementés (documentation, gestion des risques, données, traçabilité) et assurer la transparence des interactions et contenus générés.

Le non-respect peut entraîner des sanctions financières significatives et des risques juridiques, contractuels et réputationnels.

La bonne pratique consiste à structurer une cartographie des usages IA associée à un dispositif « obligations → preuves → responsable” piloté par une gouvernance claire.

Une gestion continue des risques et des changements permet de sécuriser la conformité dans le temps, sans exposer le secret professionnel. Cette approche renforce la crédibilité de l’entreprise en audit et transforme la conformité AI Act en levier de maîtrise opérationnelle.



Pour aller plus loin


Les solutions MDP Data Protection

MDP Data Protection accompagne les organisations dans la mise en conformité multi-réglementaire (RGPD, NIS2 et IA Act…), avec une approche opérationnelle et évolutive.

  • SimplyRGPD : Pilotage de votre conformité au quotidien.
  • MDP CAMPUS : Notre parcours de sensibilisation en vidéos pédagogiques de 3 à 7 minutes.
  • MDP Diagnostic : Diagnostic instantané de votre niveau de conformité.

Notre Livre Blanc RGPD

Besoin d’un support clair pour comprendre et appliquer le RGPD au quotidien ?


À propos de l’auteur

Christophe SAINT-PIERRE  – Fort de plus de 20 ans d’expérience, Christophe accompagne les organisations dans leur mise en conformité réglementaire (RGPD, NIS2, AI Act) en combinant expertise juridique, vision stratégique et approche opérationnelle. Au sein de MDP Data Protection, il pilote une démarche axée sur l’excellence, l’innovation et la valorisation réglementaire. Son objectif : transformer les contraintes légales en opportunités business pour ses clients.