Akademia Formation
🤖Intelligence Artificielle

AI Act : L'Obligation de Formation IA Qui Concerne Toutes les Entreprises

Depuis le 2 février 2025, une obligation légale pèse sur chaque entreprise européenne qui utilise un système d'intelligence artificielle — du simple chatbot à l'outil d'analyse prédictive. L'Article 4 du Règlement européen sur l'IA (AI Act) exige un « niveau suffisant de maîtrise de l'IA » pour tout personnel opérant des systèmes d'IA. Les sanctions ? Jusqu'à 7,5 millions d'euros ou 1,5 % du chiffre d'affaires mondial. Voici tout ce que vous devez savoir — et comment vous mettre en conformité.

AK
Équipe Akademia
15 min de lecture
#AI Act#réglementation#formation IA#conformité#Europe
Balance de justice dorée avec symbole IA et document législatif européen AI Act

L'AI Act n'est pas une menace lointaine. L'obligation de « littératie IA » est en vigueur depuis plus d'un an. Pourtant, seulement 15 % des entreprises françaises forment effectivement leurs équipes à l'IA. Si vous lisez cet article, vous avez déjà une longueur d'avance — à condition d'agir maintenant.

⚖️
7,5M€
amende maximale
📊
1,5%
du CA mondial
📅
Fév. 2025
déjà en vigueur
🏢
100%
des entreprises concernées

Qu'est-ce que l'AI Act ? Le premier cadre juridique mondial sur l'IA

Le Règlement (UE) 2024/1689, communément appelé AI Act, est le premier cadre juridique complet au monde dédié à la régulation de l'intelligence artificielle. Publié au Journal officiel de l'Union européenne le 12 juillet 2024 et entré en vigueur le 1er août 2024, il s'inscrit dans la continuité du RGPD, du Digital Services Act et du Digital Markets Act.

Son principe fondateur est une approche par les risques : plus un système d'IA présente de risques pour les droits fondamentaux, la santé ou la sécurité, plus les obligations sont strictes. Quatre niveaux de risque sont définis, du risque inacceptable (IA interdite) au risque minimal (aucune obligation spécifique).

Les 4 niveaux de risque de l'AI Act

Niveau de risqueExemplesObligations
Inacceptable (interdit)Scoring social, manipulation subliminale, reconnaissance faciale de masse en temps réelInterdiction totale
Haut risqueBiométrie, infrastructures critiques, éducation, emploi, accès aux services essentiels, justiceConformité complète : gestion des risques, documentation technique, marquage CE
Risque limitéChatbots, deepfakes, contenus générés par IAObligations de transparence
Risque minimalFiltres anti-spam, jeux vidéo, outils bureautiques courantsAucune obligation spécifique
🔥

Portée extraterritoriale : comme le RGPD

L'AI Act s'applique à tout fournisseur mettant un système d'IA sur le marché de l'UE, quel que soit son lieu d'établissement, et à tout déployeur établi ou situé dans l'UE. Une entreprise américaine ou chinoise dont l'outil d'IA est utilisé par des employés européens est soumise au règlement.

Article 4 : L'obligation de « maîtrise de l'IA » décryptée

Les fournisseurs et les déployeurs de systèmes d'IA prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l'IA de la part de leur personnel et des autres personnes s'occupant du fonctionnement et de l'utilisation des systèmes d'IA pour leur compte.

Article 4 — AI Act

Règlement (UE) 2024/1689

Derrière ce langage juridique se cache une obligation très concrète : toute entreprise qui utilise un système d'IA doit s'assurer que les personnes qui l'opèrent comprennent ce qu'elles font. Ce n'est pas limité aux systèmes à haut risque — c'est une obligation universelle et transversale.

Qui est concerné ?

L'obligation vise toute personne « s'occupant du fonctionnement et de l'utilisation » de systèmes d'IA. Concrètement, cela inclut :

  • Un comptable utilisant un outil d'analyse automatique des factures
  • Un RH utilisant un logiciel de tri de CV assisté par IA
  • Un commercial utilisant ChatGPT, Claude ou Copilot pour rédiger des emails
  • Un manager prenant des décisions assistées par IA
  • Un dirigeant validant une stratégie basée sur des analyses IA
  • Des sous-traitants et prestataires opérant des systèmes d'IA pour le compte de l'entreprise
⚠️

Attention : même un simple chatbot vous concerne

Contrairement aux idées reçues, l'obligation de l'Article 4 ne se limite PAS aux systèmes d'IA à haut risque. Si votre entreprise utilise ne serait-ce qu'un chatbot de service client, un outil de traduction automatique, un CRM avec fonctions IA, ou un logiciel de génération de texte, vous êtes concerné. La question n'est pas « si » vous êtes concerné, mais « à quel niveau ».

Qu'est-ce que la « littératie IA » selon la loi ?

L'Article 3 du règlement définit précisément la « maîtrise de l'IA » (AI Literacy) : les compétences, connaissances et compréhension permettant de déployer les systèmes d'IA de manière éclairée et d'acquérir une conscience des opportunités, des risques et des préjudices potentiels de l'IA.

En pratique, cela signifie que votre personnel doit comprendre : ce que fait le système d'IA qu'il utilise, ses limites et modes de défaillance, les risques associés (biais, hallucinations, confidentialité), et quand escalader un problème. Le niveau d'exigence est proportionnel au rôle de la personne et au contexte d'utilisation.

Calendrier : les dates clés à retenir

L'AI Act entre en application progressivement entre 2024 et 2027. Mais l'Article 4 fait partie des toutes premières dispositions applicables — il est en vigueur depuis plus d'un an.

📜
Juillet 2024

Publication au Journal Officiel de l'UE

Le texte intégral du Règlement (UE) 2024/1689 est publié. Le décompte des délais commence.

⚖️
1er août 2024

Entrée en vigueur du règlement

L'AI Act entre officiellement en vigueur. Les entreprises disposent de délais échelonnés pour se conformer.

🚨
2 février 2025

Article 4 applicable — Littératie IA obligatoire

Les pratiques interdites (Article 5) ET l'obligation de littératie IA (Article 4) sont applicables. C'est le cas MAINTENANT.

🤖
2 août 2025

Modèles d'IA à usage général (GPAI)

Obligations pour les modèles d'IA à usage général (ChatGPT, Claude, Gemini, etc.). Mise en place des autorités nationales et des régimes de sanctions.

🔒
2 août 2026

Full enforcement — Systèmes à haut risque

Application de la majorité des dispositions : systèmes à haut risque, obligations de transparence, enregistrement dans la base de données européenne.

🏭
2 août 2027

Produits réglementés

Systèmes d'IA intégrés dans des produits réglementés : dispositifs médicaux, jouets, véhicules, ascenseurs.

⚠️

Ne confondez pas les échéances

Le Parlement européen a voté en mars 2026 un report possible de certaines échéances pour les systèmes à haut risque. Mais les obligations de littératie IA (Article 4) et de transparence (Article 50) ne sont PAS concernées par ces reports. Elles restent pleinement applicables. La supervision effective par les autorités nationales a débuté le 2 août 2025.

Les sanctions : un risque financier réel

L'AI Act établit un système de sanctions gradué, similaire dans son principe au RGPD mais avec des montants qui peuvent être encore plus élevés.

Barème des sanctions de l'AI Act

InfractionAmende maximale% CA mondial
Pratiques interdites (Article 5)35 millions €7 %
Systèmes à haut risque (non-conformité)15 millions €3 %
Obligations de transparence et littératie IA (Article 4)7,5 millions €1,5 %
Informations inexactes aux autorités7,5 millions €1 %

C'est toujours le montant le plus élevé qui s'applique entre le montant fixe et le pourcentage du CA. Pour une PME à 10 millions d'euros de CA, l'amende maximale pour non-respect de l'Article 4 est de 7,5 millions d'euros (le montant fixe dépasse 1,5 % de 10M). Pour les grandes entreprises à 500 millions de CA, les deux montants convergent à 7,5 millions.

💡

Leçon du RGPD : les sanctions sont réelles

Depuis 2018, les amendes RGPD ont totalisé plus de 4,5 milliards d'euros en Europe. Les premières sanctions ont d'abord ciblé les géants technologiques, puis se sont étendues à des entreprises de toutes tailles. On peut anticiper le même schéma pour l'AI Act. La conformité n'est pas un luxe — c'est une assurance.

Les autorités compétentes en France

Autorités de contrôle de l'AI Act en France

AutoritéDomaine de compétence
CNIL (autorité principale)Biométrie, scoring, protection des données personnelles dans l'IA
DGCCRFManipulation, transparence commerciale, hypertrucages
ArcomContenus générés par IA, deepfakes médiatiques
ANSSICybersécurité des systèmes d'IA

Mise en conformité : les 5 étapes concrètes

La mise en conformité avec l'Article 4 n'est pas un événement ponctuel — c'est un programme continu. Voici la démarche structurée recommandée par les experts en conformité.

Les 5 étapes vers la conformité Article 4

1️⃣
Inventaire et cartographie des systèmes d'IA

Identifiez TOUS les systèmes d'IA utilisés dans votre entreprise, y compris la « Shadow AI » (outils utilisés par les collaborateurs sans approbation formelle). Cartographiez quels rôles interagissent avec quels systèmes. Documentez les finalités d'utilisation.

2️⃣
Évaluation des besoins en formation

Établissez une base de référence des connaissances actuelles du personnel. Identifiez les lacunes par rapport au niveau requis. Priorisez les formations selon les risques liés aux systèmes utilisés.

3️⃣
Définition des niveaux de littératie par rôle

Différenciez trois niveaux : Niveau 1 (sensibilisation pour tous), Niveau 2 (littératie opérationnelle pour les utilisateurs directs), Niveau 3 (littératie avancée pour les développeurs, équipes risques et dirigeants).

4️⃣
Déploiement et documentation

Mettez en œuvre les programmes de formation. Maintenez une documentation rigoureuse : politique écrite, registres de formation, résultats d'évaluation, calendrier de mise à jour. La documentation est la PREUVE principale de conformité.

5️⃣
Évaluation, itération et maintenance

Traitez la littératie IA comme un programme CONTINU. Revue annuelle minimum, mises à jour fréquentes. Adaptez les formations à chaque nouveau système d'IA déployé.

Les 3 niveaux de formation exigés par l'Article 4

L'Article 4 introduit un principe de proportionnalité : le niveau de formation doit être adapté au rôle de la personne et au contexte d'utilisation des systèmes d'IA. Trois niveaux se dessinent dans la pratique.

Les 3 niveaux de littératie IA selon l'Article 4

NiveauPublicContenu requis
Niveau 1 — SensibilisationTous les collaborateursComprendre l'IA, reconnaître les applications IA, connaître les risques (biais, hallucinations, confidentialité), notions AI Act, savoir escalader
Niveau 2 — Littératie opérationnelleUtilisateurs directs de systèmes d'IAFonctionnement des outils utilisés, limites et modes de défaillance, responsabilités de supervision humaine, implications protection des données
Niveau 3 — Littératie avancéeDéveloppeurs, équipes risques, dirigeantsClassification des risques AI Act, aspects techniques, détection des biais, évaluation de conformité, cadres de gouvernance

L'IA en France : un paradoxe qui confirme l'urgence

🇫🇷
10%
entreprises françaises utilisent l'IA
📚
15%
forment leurs équipes
🚀
31%
TPE-PME utilisent l'IA générative
💰
+56%
prime salariale profils IA

Les chiffres de l'INSEE (enquête TIC 2024) et de Bpifrance révèlent un paradoxe massif : l'adoption de l'IA s'accélère (10 % des entreprises françaises de 10+ salariés, +4 points en un an), mais la formation ne suit pas. Seulement 15 % des entreprises forment effectivement leurs équipes, alors que 80 % déclarent vouloir miser sur l'IA.

Côté TPE-PME, 31 % utilisent déjà l'IA générative, mais seulement 8 % de façon régulière et structurée. Les dirigeants réfractaires sont passés de 72 % à 50 % en un an — la sensibilisation progresse, mais la mise en conformité reste largement insuffisante.

🔥

Le principal frein à l'IA en France : la pénurie de compétences

Selon l'INSEE et Bpifrance, le premier frein à l'adoption de l'IA dans les entreprises françaises est l'absence de compétences. C'est exactement ce que l'Article 4 vise à résoudre — en transformant cette lacune en obligation légale. L'investissement dans la formation IA n'est plus seulement stratégique, il est juridiquement requis.

Les 6 erreurs à éviter dans votre mise en conformité

  1. Formation unique sans suivi — Une session one-shot ne suffit pas. Le programme doit être continu et actualisé au rythme des évolutions de l'IA.
  2. Formation uniforme pour tous — Il faut différencier par rôle et niveau d'exposition. Un développeur et un comptable n'ont pas les mêmes besoins.
  3. Oublier les sous-traitants — Les prestataires et contractuels utilisant l'IA pour votre compte sont couverts par l'obligation.
  4. Contenu générique déconnecté des outils réels — La formation doit porter sur les systèmes effectivement utilisés dans votre organisation.
  5. Absence de documentation — Les autorités de surveillance attendront des preuves de conformité. Sans registre de formation, pas de preuve.
  6. Confondre littératie IA et éthique de l'IA — Ce sont deux concepts distincts. La littératie est une obligation légale concrète avec des critères mesurables.

AI Act vs RGPD : les leçons à retenir

AI Act vs RGPD

RGPD (2016)
  • +Amende max : 20M€ ou 4% du CA mondial
  • +DPO obligatoire dans certains cas
  • +Registre des traitements
  • +Analyse d'impact (AIPD)
  • +4,5 milliards d'amendes depuis 2018
  • +Autorité FR : CNIL
AI Act (2024)
  • Amende max : 35M€ ou 7% du CA mondial
  • Référent IA recommandé (non obligatoire)
  • Base de données européenne des systèmes HR
  • Évaluation de conformité + analyse d'impact droits fondamentaux
  • Sanctions attendues dès 2025-2026
  • Autorités FR : CNIL + DGCCRF + Arcom + ANSSI

Quatre leçons du RGPD s'appliquent directement à l'AI Act : ne pas attendre le dernier moment (de nombreuses entreprises n'étaient pas prêtes en 2018 malgré deux ans de délai), les sanctions sont réelles (4,5 milliards d'amendes RGPD), la conformité est un avantage commercial (argument de confiance auprès des clients), et la formation est la première étape (le RGPD a montré que la sensibilisation est le socle de la conformité).

Parcours de conformité Akademia : des formations pour chaque niveau

Akademia Formation a conçu un parcours complet de formation IA qui couvre les trois niveaux de littératie exigés par l'Article 4. Chaque formation intègre des mises en situation pratiques, un accompagnement par IA tutrice et un accès post-formation de 3 mois pour la révision continue — exactement ce que les autorités de contrôle attendent.

Niveau 1 — Sensibilisation générale : pour tous les collaborateurs

Formations Akademia — Niveau 1 : Sensibilisation

FormationPublicObjectif conformité
Claude 101 — Maîtriser Claude au QuotidienTout collaborateurComprendre l'IA, ses capacités et limites, utiliser Claude de manière éclairée
Claude Cowork — Assistant IA de BureauÉquipes bureautiquesMaîtriser l'IA dans les tâches quotidiennes : rédaction, analyse, automatisation
Claude pour Dirigeants — Stratégie IADirection, managersVision stratégique, gouvernance, risques et opportunités de l'IA

Niveau 2 — Littératie opérationnelle : pour les utilisateurs directs

Formations Akademia — Niveau 2 : Opérationnel

FormationPublicObjectif conformité
Prompt Engineering — Techniques AvancéesUtilisateurs quotidiens d'IAMaîtriser les interactions avec les systèmes d'IA, comprendre les limites
Automatisation Workflows IA ClaudeÉquipes opérationnellesConcevoir et superviser des workflows automatisés avec l'IA
Claude Code — Développement Assisté IADéveloppeurs juniors/intermédiairesUtiliser l'IA dans le cycle de développement de manière responsable
MCP — Connecter Claude aux OutilsÉquipes IT, intégrateursComprendre et gérer les connexions entre IA et systèmes d'entreprise

Niveau 3 — Littératie avancée : pour les experts et décideurs

Formations Akademia — Niveau 3 : Avancé

FormationPublicObjectif conformité
Construire avec l'API ClaudeDéveloppeurs, architectesIntégrer l'IA de manière sécurisée, évaluer les systèmes, documenter
Claude Code Avancé — Subagents, Skills, TeamsDéveloppeurs seniorsConcevoir des systèmes multi-agents avec gouvernance et traçabilité
Agents IA — Claude SDK & Managed AgentsArchitectes IA, leads techniquesDévelopper et superviser des agents autonomes conformément à l'AI Act
Claude AWS Bedrock / Google Cloud Vertex AIÉquipes cloud, DevOpsDéployer l'IA en entreprise avec les garde-fous cloud appropriés

Pourquoi choisir Akademia pour votre conformité Article 4 ?

  • LMS propriétaire avec tutrice IA vocale — Mises en situation et jeux de rôle pilotés par IA, exactement le type d'évaluation que les autorités valorisent
  • Tracking xAPI complet — Traçabilité complète de chaque interaction d'apprentissage, preuve de conformité auditée
  • Tests de positionnement avant/après — Mesure objective de la progression, documentation prête pour les contrôles
  • Accès 3 mois post-formation — Révision continue, conforme à l'exigence de programme continu
  • Espace entreprise avec suivi centralisé — Tableau de bord des inscriptions et progressions pour le responsable formation ou le référent IA
  • Formations sur les outils réels de l'entreprise — Claude, ChatGPT, outils métier — pas de contenu générique déconnecté du terrain

Agissez maintenant : la fenêtre se referme

L'Article 4 est en vigueur depuis février 2025. Le 2 août 2026 marquera l'application complète de l'AI Act, avec les sanctions pour les systèmes à haut risque. Les autorités de contrôle sont en place. La question n'est plus de savoir si vous devez agir, mais quand. Et la réponse est : maintenant.

Les entreprises qui investissent aujourd'hui dans la formation IA de leurs équipes ne font pas que se protéger juridiquement — elles prennent une longueur d'avance concurrentielle. La maîtrise de l'IA est un facteur de productivité, de confiance client et de différenciation sur le marché.

Questions fréquentes sur l'AI Act et l'Article 4

Mon entreprise n'utilise que ChatGPT ou Claude — suis-je concerné par l'AI Act ?
Oui, absolument. L'obligation de littératie IA de l'Article 4 s'applique à TOUT déployeur de système d'IA, quel que soit le niveau de risque. Un outil de chat IA (ChatGPT, Claude, Copilot) est un système d'IA au sens du règlement. Votre personnel qui l'utilise doit comprendre ses capacités, ses limites (hallucinations, biais) et les risques de confidentialité associés.
Les PME sont-elles exemptées de l'Article 4 ?
Non. L'Article 4 ne prévoit aucune exemption pour les PME. Cependant, le principe de proportionnalité s'applique : les mesures doivent être adaptées à la taille de l'organisation et à ses ressources. Une PME de 20 salariés n'aura pas le même niveau d'exigence qu'un grand groupe, mais elle doit pouvoir démontrer que son personnel comprend les outils d'IA qu'il utilise. Les sanctions sont également proportionnées pour les PME.
Quelle est la différence entre une « formation IA » et la « littératie IA » exigée par l'Article 4 ?
La littératie IA ne se résume pas à un cours théorique sur « qu'est-ce que l'intelligence artificielle ». L'Article 4 exige une compréhension opérationnelle : le personnel doit comprendre les systèmes d'IA qu'il utilise effectivement, leurs limites, les risques spécifiques, et savoir quand et comment escalader. Une formation conforme doit être pratique, contextualisée aux outils de l'entreprise et évaluée.
Comment prouver ma conformité à l'Article 4 en cas de contrôle ?
Les autorités de surveillance évalueront la proportionnalité et la bonne foi de vos mesures. La documentation est la preuve principale : politique écrite d'utilisation de l'IA, registres de formation (qui a été formé, quand, sur quoi), résultats d'évaluation (tests de positionnement avant/après), calendrier de mise à jour. Le tracking xAPI d'Akademia fournit exactement cette traçabilité auditée.
Les formations Akademia sont-elles éligibles aux financements OPCO ?
Oui. Akademia Formation est certifié Qualiopi, ce qui permet la prise en charge par les OPCO (Opérateurs de Compétences). La formation IA dans le cadre de la conformité AI Act constitue un besoin de montée en compétences éligible au plan de développement des compétences de votre entreprise. Contactez-nous pour une estimation personnalisée du financement.
L'AI Act s'applique-t-il aux entreprises non européennes qui ont des clients en Europe ?
Oui. Comme le RGPD, l'AI Act a une portée extraterritoriale. Il s'applique à tout fournisseur mettant un système d'IA sur le marché de l'UE (quel que soit son lieu d'établissement) et à tout déployeur dont le système d'IA produit des résultats utilisés dans l'UE. Une entreprise américaine dont l'outil est utilisé par des employés européens est soumise au règlement.

Envie d'aller plus loin ?

Découvrez nos formations certifiantes et finançables CPF pour développer vos compétences.

AI Act Article 4 : Obligation Formation IA Entreprises