L'AI Act n'est pas une menace lointaine. L'obligation de « littératie IA » est en vigueur depuis plus d'un an. Pourtant, seulement 15 % des entreprises françaises forment effectivement leurs équipes à l'IA. Si vous lisez cet article, vous avez déjà une longueur d'avance — à condition d'agir maintenant.
Qu'est-ce que l'AI Act ? Le premier cadre juridique mondial sur l'IA
Le Règlement (UE) 2024/1689, communément appelé AI Act, est le premier cadre juridique complet au monde dédié à la régulation de l'intelligence artificielle. Publié au Journal officiel de l'Union européenne le 12 juillet 2024 et entré en vigueur le 1er août 2024, il s'inscrit dans la continuité du RGPD, du Digital Services Act et du Digital Markets Act.
Son principe fondateur est une approche par les risques : plus un système d'IA présente de risques pour les droits fondamentaux, la santé ou la sécurité, plus les obligations sont strictes. Quatre niveaux de risque sont définis, du risque inacceptable (IA interdite) au risque minimal (aucune obligation spécifique).
Les 4 niveaux de risque de l'AI Act
| Niveau de risque | Exemples | Obligations |
|---|---|---|
| Inacceptable (interdit) | Scoring social, manipulation subliminale, reconnaissance faciale de masse en temps réel | Interdiction totale |
| Haut risque | Biométrie, infrastructures critiques, éducation, emploi, accès aux services essentiels, justice | Conformité complète : gestion des risques, documentation technique, marquage CE |
| Risque limité | Chatbots, deepfakes, contenus générés par IA | Obligations de transparence |
| Risque minimal | Filtres anti-spam, jeux vidéo, outils bureautiques courants | Aucune obligation spécifique |
Portée extraterritoriale : comme le RGPD
L'AI Act s'applique à tout fournisseur mettant un système d'IA sur le marché de l'UE, quel que soit son lieu d'établissement, et à tout déployeur établi ou situé dans l'UE. Une entreprise américaine ou chinoise dont l'outil d'IA est utilisé par des employés européens est soumise au règlement.
Article 4 : L'obligation de « maîtrise de l'IA » décryptée
“Les fournisseurs et les déployeurs de systèmes d'IA prennent des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l'IA de la part de leur personnel et des autres personnes s'occupant du fonctionnement et de l'utilisation des systèmes d'IA pour leur compte.”
Derrière ce langage juridique se cache une obligation très concrète : toute entreprise qui utilise un système d'IA doit s'assurer que les personnes qui l'opèrent comprennent ce qu'elles font. Ce n'est pas limité aux systèmes à haut risque — c'est une obligation universelle et transversale.
Qui est concerné ?
L'obligation vise toute personne « s'occupant du fonctionnement et de l'utilisation » de systèmes d'IA. Concrètement, cela inclut :
- Un comptable utilisant un outil d'analyse automatique des factures
- Un RH utilisant un logiciel de tri de CV assisté par IA
- Un commercial utilisant ChatGPT, Claude ou Copilot pour rédiger des emails
- Un manager prenant des décisions assistées par IA
- Un dirigeant validant une stratégie basée sur des analyses IA
- Des sous-traitants et prestataires opérant des systèmes d'IA pour le compte de l'entreprise
Attention : même un simple chatbot vous concerne
Contrairement aux idées reçues, l'obligation de l'Article 4 ne se limite PAS aux systèmes d'IA à haut risque. Si votre entreprise utilise ne serait-ce qu'un chatbot de service client, un outil de traduction automatique, un CRM avec fonctions IA, ou un logiciel de génération de texte, vous êtes concerné. La question n'est pas « si » vous êtes concerné, mais « à quel niveau ».
Qu'est-ce que la « littératie IA » selon la loi ?
L'Article 3 du règlement définit précisément la « maîtrise de l'IA » (AI Literacy) : les compétences, connaissances et compréhension permettant de déployer les systèmes d'IA de manière éclairée et d'acquérir une conscience des opportunités, des risques et des préjudices potentiels de l'IA.
En pratique, cela signifie que votre personnel doit comprendre : ce que fait le système d'IA qu'il utilise, ses limites et modes de défaillance, les risques associés (biais, hallucinations, confidentialité), et quand escalader un problème. Le niveau d'exigence est proportionnel au rôle de la personne et au contexte d'utilisation.
Calendrier : les dates clés à retenir
L'AI Act entre en application progressivement entre 2024 et 2027. Mais l'Article 4 fait partie des toutes premières dispositions applicables — il est en vigueur depuis plus d'un an.
Publication au Journal Officiel de l'UE
Le texte intégral du Règlement (UE) 2024/1689 est publié. Le décompte des délais commence.
Entrée en vigueur du règlement
L'AI Act entre officiellement en vigueur. Les entreprises disposent de délais échelonnés pour se conformer.
Article 4 applicable — Littératie IA obligatoire
Les pratiques interdites (Article 5) ET l'obligation de littératie IA (Article 4) sont applicables. C'est le cas MAINTENANT.
Modèles d'IA à usage général (GPAI)
Obligations pour les modèles d'IA à usage général (ChatGPT, Claude, Gemini, etc.). Mise en place des autorités nationales et des régimes de sanctions.
Full enforcement — Systèmes à haut risque
Application de la majorité des dispositions : systèmes à haut risque, obligations de transparence, enregistrement dans la base de données européenne.
Produits réglementés
Systèmes d'IA intégrés dans des produits réglementés : dispositifs médicaux, jouets, véhicules, ascenseurs.
Ne confondez pas les échéances
Le Parlement européen a voté en mars 2026 un report possible de certaines échéances pour les systèmes à haut risque. Mais les obligations de littératie IA (Article 4) et de transparence (Article 50) ne sont PAS concernées par ces reports. Elles restent pleinement applicables. La supervision effective par les autorités nationales a débuté le 2 août 2025.
Les sanctions : un risque financier réel
L'AI Act établit un système de sanctions gradué, similaire dans son principe au RGPD mais avec des montants qui peuvent être encore plus élevés.
Barème des sanctions de l'AI Act
| Infraction | Amende maximale | % CA mondial |
|---|---|---|
| Pratiques interdites (Article 5) | 35 millions € | 7 % |
| Systèmes à haut risque (non-conformité) | 15 millions € | 3 % |
| Obligations de transparence et littératie IA (Article 4) | 7,5 millions € | 1,5 % |
| Informations inexactes aux autorités | 7,5 millions € | 1 % |
C'est toujours le montant le plus élevé qui s'applique entre le montant fixe et le pourcentage du CA. Pour une PME à 10 millions d'euros de CA, l'amende maximale pour non-respect de l'Article 4 est de 7,5 millions d'euros (le montant fixe dépasse 1,5 % de 10M). Pour les grandes entreprises à 500 millions de CA, les deux montants convergent à 7,5 millions.
Leçon du RGPD : les sanctions sont réelles
Depuis 2018, les amendes RGPD ont totalisé plus de 4,5 milliards d'euros en Europe. Les premières sanctions ont d'abord ciblé les géants technologiques, puis se sont étendues à des entreprises de toutes tailles. On peut anticiper le même schéma pour l'AI Act. La conformité n'est pas un luxe — c'est une assurance.
Les autorités compétentes en France
Autorités de contrôle de l'AI Act en France
| Autorité | Domaine de compétence |
|---|---|
| CNIL (autorité principale) | Biométrie, scoring, protection des données personnelles dans l'IA |
| DGCCRF | Manipulation, transparence commerciale, hypertrucages |
| Arcom | Contenus générés par IA, deepfakes médiatiques |
| ANSSI | Cybersécurité des systèmes d'IA |
Mise en conformité : les 5 étapes concrètes
La mise en conformité avec l'Article 4 n'est pas un événement ponctuel — c'est un programme continu. Voici la démarche structurée recommandée par les experts en conformité.
Les 5 étapes vers la conformité Article 4
Inventaire et cartographie des systèmes d'IA
Identifiez TOUS les systèmes d'IA utilisés dans votre entreprise, y compris la « Shadow AI » (outils utilisés par les collaborateurs sans approbation formelle). Cartographiez quels rôles interagissent avec quels systèmes. Documentez les finalités d'utilisation.
Évaluation des besoins en formation
Établissez une base de référence des connaissances actuelles du personnel. Identifiez les lacunes par rapport au niveau requis. Priorisez les formations selon les risques liés aux systèmes utilisés.
Définition des niveaux de littératie par rôle
Différenciez trois niveaux : Niveau 1 (sensibilisation pour tous), Niveau 2 (littératie opérationnelle pour les utilisateurs directs), Niveau 3 (littératie avancée pour les développeurs, équipes risques et dirigeants).
Déploiement et documentation
Mettez en œuvre les programmes de formation. Maintenez une documentation rigoureuse : politique écrite, registres de formation, résultats d'évaluation, calendrier de mise à jour. La documentation est la PREUVE principale de conformité.
Évaluation, itération et maintenance
Traitez la littératie IA comme un programme CONTINU. Revue annuelle minimum, mises à jour fréquentes. Adaptez les formations à chaque nouveau système d'IA déployé.
Les 3 niveaux de formation exigés par l'Article 4
L'Article 4 introduit un principe de proportionnalité : le niveau de formation doit être adapté au rôle de la personne et au contexte d'utilisation des systèmes d'IA. Trois niveaux se dessinent dans la pratique.
Les 3 niveaux de littératie IA selon l'Article 4
| Niveau | Public | Contenu requis |
|---|---|---|
| Niveau 1 — Sensibilisation | Tous les collaborateurs | Comprendre l'IA, reconnaître les applications IA, connaître les risques (biais, hallucinations, confidentialité), notions AI Act, savoir escalader |
| Niveau 2 — Littératie opérationnelle | Utilisateurs directs de systèmes d'IA | Fonctionnement des outils utilisés, limites et modes de défaillance, responsabilités de supervision humaine, implications protection des données |
| Niveau 3 — Littératie avancée | Développeurs, équipes risques, dirigeants | Classification des risques AI Act, aspects techniques, détection des biais, évaluation de conformité, cadres de gouvernance |
L'IA en France : un paradoxe qui confirme l'urgence
Les chiffres de l'INSEE (enquête TIC 2024) et de Bpifrance révèlent un paradoxe massif : l'adoption de l'IA s'accélère (10 % des entreprises françaises de 10+ salariés, +4 points en un an), mais la formation ne suit pas. Seulement 15 % des entreprises forment effectivement leurs équipes, alors que 80 % déclarent vouloir miser sur l'IA.
Côté TPE-PME, 31 % utilisent déjà l'IA générative, mais seulement 8 % de façon régulière et structurée. Les dirigeants réfractaires sont passés de 72 % à 50 % en un an — la sensibilisation progresse, mais la mise en conformité reste largement insuffisante.
Le principal frein à l'IA en France : la pénurie de compétences
Selon l'INSEE et Bpifrance, le premier frein à l'adoption de l'IA dans les entreprises françaises est l'absence de compétences. C'est exactement ce que l'Article 4 vise à résoudre — en transformant cette lacune en obligation légale. L'investissement dans la formation IA n'est plus seulement stratégique, il est juridiquement requis.
Les 6 erreurs à éviter dans votre mise en conformité
- Formation unique sans suivi — Une session one-shot ne suffit pas. Le programme doit être continu et actualisé au rythme des évolutions de l'IA.
- Formation uniforme pour tous — Il faut différencier par rôle et niveau d'exposition. Un développeur et un comptable n'ont pas les mêmes besoins.
- Oublier les sous-traitants — Les prestataires et contractuels utilisant l'IA pour votre compte sont couverts par l'obligation.
- Contenu générique déconnecté des outils réels — La formation doit porter sur les systèmes effectivement utilisés dans votre organisation.
- Absence de documentation — Les autorités de surveillance attendront des preuves de conformité. Sans registre de formation, pas de preuve.
- Confondre littératie IA et éthique de l'IA — Ce sont deux concepts distincts. La littératie est une obligation légale concrète avec des critères mesurables.
AI Act vs RGPD : les leçons à retenir
AI Act vs RGPD
✓RGPD (2016)
- +Amende max : 20M€ ou 4% du CA mondial
- +DPO obligatoire dans certains cas
- +Registre des traitements
- +Analyse d'impact (AIPD)
- +4,5 milliards d'amendes depuis 2018
- +Autorité FR : CNIL
✗AI Act (2024)
- −Amende max : 35M€ ou 7% du CA mondial
- −Référent IA recommandé (non obligatoire)
- −Base de données européenne des systèmes HR
- −Évaluation de conformité + analyse d'impact droits fondamentaux
- −Sanctions attendues dès 2025-2026
- −Autorités FR : CNIL + DGCCRF + Arcom + ANSSI
Quatre leçons du RGPD s'appliquent directement à l'AI Act : ne pas attendre le dernier moment (de nombreuses entreprises n'étaient pas prêtes en 2018 malgré deux ans de délai), les sanctions sont réelles (4,5 milliards d'amendes RGPD), la conformité est un avantage commercial (argument de confiance auprès des clients), et la formation est la première étape (le RGPD a montré que la sensibilisation est le socle de la conformité).
Parcours de conformité Akademia : des formations pour chaque niveau
Akademia Formation a conçu un parcours complet de formation IA qui couvre les trois niveaux de littératie exigés par l'Article 4. Chaque formation intègre des mises en situation pratiques, un accompagnement par IA tutrice et un accès post-formation de 3 mois pour la révision continue — exactement ce que les autorités de contrôle attendent.
Niveau 1 — Sensibilisation générale : pour tous les collaborateurs
Formations Akademia — Niveau 1 : Sensibilisation
| Formation | Public | Objectif conformité |
|---|---|---|
| Claude 101 — Maîtriser Claude au Quotidien | Tout collaborateur | Comprendre l'IA, ses capacités et limites, utiliser Claude de manière éclairée |
| Claude Cowork — Assistant IA de Bureau | Équipes bureautiques | Maîtriser l'IA dans les tâches quotidiennes : rédaction, analyse, automatisation |
| Claude pour Dirigeants — Stratégie IA | Direction, managers | Vision stratégique, gouvernance, risques et opportunités de l'IA |
Niveau 2 — Littératie opérationnelle : pour les utilisateurs directs
Formations Akademia — Niveau 2 : Opérationnel
| Formation | Public | Objectif conformité |
|---|---|---|
| Prompt Engineering — Techniques Avancées | Utilisateurs quotidiens d'IA | Maîtriser les interactions avec les systèmes d'IA, comprendre les limites |
| Automatisation Workflows IA Claude | Équipes opérationnelles | Concevoir et superviser des workflows automatisés avec l'IA |
| Claude Code — Développement Assisté IA | Développeurs juniors/intermédiaires | Utiliser l'IA dans le cycle de développement de manière responsable |
| MCP — Connecter Claude aux Outils | Équipes IT, intégrateurs | Comprendre et gérer les connexions entre IA et systèmes d'entreprise |
Niveau 3 — Littératie avancée : pour les experts et décideurs
Formations Akademia — Niveau 3 : Avancé
| Formation | Public | Objectif conformité |
|---|---|---|
| Construire avec l'API Claude | Développeurs, architectes | Intégrer l'IA de manière sécurisée, évaluer les systèmes, documenter |
| Claude Code Avancé — Subagents, Skills, Teams | Développeurs seniors | Concevoir des systèmes multi-agents avec gouvernance et traçabilité |
| Agents IA — Claude SDK & Managed Agents | Architectes IA, leads techniques | Développer et superviser des agents autonomes conformément à l'AI Act |
| Claude AWS Bedrock / Google Cloud Vertex AI | Équipes cloud, DevOps | Déployer l'IA en entreprise avec les garde-fous cloud appropriés |
Pourquoi choisir Akademia pour votre conformité Article 4 ?
- LMS propriétaire avec tutrice IA vocale — Mises en situation et jeux de rôle pilotés par IA, exactement le type d'évaluation que les autorités valorisent
- Tracking xAPI complet — Traçabilité complète de chaque interaction d'apprentissage, preuve de conformité auditée
- Tests de positionnement avant/après — Mesure objective de la progression, documentation prête pour les contrôles
- Accès 3 mois post-formation — Révision continue, conforme à l'exigence de programme continu
- Espace entreprise avec suivi centralisé — Tableau de bord des inscriptions et progressions pour le responsable formation ou le référent IA
- Formations sur les outils réels de l'entreprise — Claude, ChatGPT, outils métier — pas de contenu générique déconnecté du terrain
Agissez maintenant : la fenêtre se referme
L'Article 4 est en vigueur depuis février 2025. Le 2 août 2026 marquera l'application complète de l'AI Act, avec les sanctions pour les systèmes à haut risque. Les autorités de contrôle sont en place. La question n'est plus de savoir si vous devez agir, mais quand. Et la réponse est : maintenant.
Les entreprises qui investissent aujourd'hui dans la formation IA de leurs équipes ne font pas que se protéger juridiquement — elles prennent une longueur d'avance concurrentielle. La maîtrise de l'IA est un facteur de productivité, de confiance client et de différenciation sur le marché.



