AI Act & Organismes de Formation : Obligations, Cas à Haut Risque et Plan de Conformité 2026
Les organismes de formation et cabinets de conseil sont en première ligne face à l'AI Act (Règlement 2024/1689). Non seulement ils doivent se conformer comme toute entreprise, mais leur secteur est directement visé par des cas d'usage à haut risque et des pratiques formellement interdites. Voici ce que votre structure doit mettre en place — et ce qu'elle doit absolument éviter.
- Article 4 — Littératie IA (en vigueur depuis 2 février 2025) : obligation de former tout le personnel aux risques et limites des outils IA utilisés — sanction jusqu'à 7,5 M€ ou 1 % du CA en cas de non-conformité
- 3 cas d'usage haut risque dans la formation (Annexe III) : admission et sélection des apprenants, surveillance d'examens par IA (proctoring), et évaluation automatisée des apprentissages
- Pratiques interdites depuis février 2025 : reconnaissance des émotions en salle de classe ou virtuelle, et catégorisation biométrique pour inférer des caractéristiques protégées — sanction : 35 M€ ou 7 % du CA
- Plan de conformité en 5 étapes : cartographie des outils (J+0 à J+30), formation Article 4, audit des fournisseurs, supervision humaine, et documentation/gouvernance continue avec logs conservés 6 mois minimum
Votre double rôle sous l'AI Act
Un organisme de formation ou un cabinet de conseil peut être concerné par l'AI Act sous deux casquettes distinctes, avec des obligations différentes :
- Fournisseur (Provider) : vous développez ou faites développer un outil IA à votre marque — une plateforme d'apprentissage adaptatif, un moteur de recommandation de parcours, un assistant pédagogique. Vous supportez les obligations les plus lourdes : documentation technique, enregistrement, marquage CE pour les systèmes haut risque.
- Déployeur (Deployer) : vous utilisez un système IA tiers dans vos activités — un outil de proctoring en ligne, un LMS avec scoring automatisé, un chatbot de support apprenant. Vous devez vérifier la conformité du fournisseur, informer vos apprenants et maintenir la supervision humaine.
Dans la plupart des cas, les organismes de formation sont déployeurs — ils achètent ou s'abonnent à des solutions tierces. Mais cette position n'exonère pas de responsabilité : le déployeur reste garant de l'usage conforme dans son contexte.
L'obligation prioritaire : Article 4 — Littératie IA (depuis février 2025)
La première obligation à respecter — et la plus immédiate — est l'Article 4 de l'AI Act, en vigueur depuis le 2 février 2025. Il impose à toute organisation qui déploie des systèmes d'IA de s'assurer que son personnel dispose d'un niveau suffisant de littératie en IA ("AI literacy") en tenant compte de :
- Leur niveau technique et leurs fonctions
- Les systèmes d'IA qu'ils utilisent ou supervisent
- Les personnes ou processus sur lesquels ces systèmes ont un impact
Ce que cela signifie concrètement pour un OF ou un cabinet de conseil
- Vos formateurs qui utilisent des outils IA (génération de supports, correction automatisée) doivent comprendre les limites, biais et risques de ces outils
- Vos équipes commerciales qui vendent des formations avec outils IA doivent savoir expliquer les garde-fous en place
- Vos dirigeants et responsables pédagogiques doivent pouvoir prendre des décisions éclairées sur l'adoption d'outils IA
- Une documentation de la formation reçue doit être conservée (en cas de contrôle)
Risque de non-conformité : jusqu'à 7,5 M€ ou 1 % du chiffre d'affaires mondial.
Les cas d'usage à haut risque dans la formation (Annexe III, point 3)
L'AI Act classe explicitement trois catégories d'outils IA éducatifs comme systèmes à haut risque — soumis aux obligations les plus strictes de documentation, supervision humaine et transparence :
1. Admission et sélection des apprenants
Tout système d'IA qui influence l'accès à une formation est à haut risque : algorithme de présélection des candidatures, scoring d'admissibilité, recommandation automatisée de parcours basée sur des données personnelles. Ces systèmes doivent être documentés, auditables et supervisés par un humain qui peut en annuler la décision.
2. Surveillance d'examens (proctoring IA)
Les outils de surveillance automatisée d'examens à distance — qui détectent les comportements suspects par analyse vidéo, suivi des mouvements ou analyse audio — sont explicitement classés haut risque. Si vous utilisez un outil de proctoring IA (ProctorU, Proctorio, ExamSoft, etc.), vous devez :
- Obtenir du fournisseur sa documentation de conformité AI Act
- Informer explicitement les apprenants qu'un système IA les surveille
- Permettre à un humain de contester et annuler les décisions automatiques
- Tenir un registre des sessions pendant au moins 6 mois
3. Évaluation automatisée des apprentissages
Les systèmes d'évaluation automatisée — correction automatique des devoirs, notation par IA des compétences, scoring de certifications — sont à haut risque dès lors qu'ils influencent des décisions importantes pour l'apprenant (validation d'un module, obtention d'un certificat, accès à un niveau supérieur). La supervision humaine n'est pas optionnelle : une décision IA défavorable doit pouvoir être revue par un instructeur humain.
Les pratiques formellement interdites dans la formation (Article 5)
Depuis le 2 février 2025, certaines pratiques IA sont totalement prohibées. Dans le secteur de la formation, deux interdictions sont particulièrement importantes :
- Reconnaissance des émotions en salle de classe (physique ou virtuelle) : Interdiction absolue d'utiliser l'IA pour analyser les émotions des apprenants pendant une session de formation — qu'il s'agisse de caméras en salle présentielle, de la webcam lors d'une classe virtuelle, ou d'analyses audio. Cette pratique était promue par certains acteurs EdTech pour mesurer "l'engagement" ou "la compréhension" en temps réel. Elle est désormais illégale en Europe.
- Catégorisation biométrique pour inférer des caractéristiques protégées : Analyser les données biométriques des apprenants (vidéo, empreintes digitales lors du proctoring) pour inférer leur origine ethnique, opinions politiques ou autres caractéristiques protégées est strictement interdit. Certains outils de proctoring historiques analysaient l'origine apparente pour des raisons de "profilage de risque" — pratique désormais bannie.
Sanction : violation des pratiques interdites ? jusqu'à 35 M€ ou 7 % du CA mondial, le montant le plus élevé s'appliquant.
Le cadre français : CNIL, Arcom et loi SREN
En France, l'AI Act s'articule avec un cadre national renforcé. Trois autorités sont concernées pour un organisme de formation :
| Autorité | Domaine de compétence | Sanction maximale |
|---|---|---|
| CNIL | Données personnelles des apprenants (RGPD + AI Act). Traçabilité des décisions algorithmiques. | 20 M€ ou 4 % CA (RGPD) + 100 000 €/jour (injonction) |
| Arcom | Contenus générés par IA diffusés dans les formations (faux, deepfakes, désinformation) | 6 % CA (loi SREN) |
| Autorité nationale AI Act (en cours de désignation) | Conformité globale AI Act : haut risque, pratiques interdites, littératie IA | 35 M€ ou 7 % CA |
La loi SREN (Sécuriser et Réguler l'Espace Numérique, adoptée en 2024) ajoute une obligation de marquage des contenus générés par IA : si vous produisez des supports pédagogiques avec des outils IA génératives (textes, images, vidéos), vous devez les identifier clairement comme tels.
Le cas du consulting : quand votre conseil engage votre responsabilité
Pour les cabinets de conseil qui accompagnent des clients dans le déploiement d'outils IA, l'AI Act crée une responsabilité indirecte mais réelle :
- Recommander un outil IA non conforme à un client sans le signaler expose le cabinet à des poursuites pour manquement au devoir de conseil
- Rédiger des spécifications pour un système d'IA haut risque sans documenter les exigences de conformité engage la responsabilité contractuelle
- Les missions d'audit et de transformation digitale incluant des outils IA doivent désormais intégrer un volet conformité AI Act systématique
La conformité AI Act devient ainsi une compétence métier attendue pour tout consultant en transformation digitale ou en data.
Plan de conformité en 5 étapes pour un OF ou cabinet
- Étape 1 — Cartographie des outils IA (J+0 à J+30) : Listez tous les outils IA utilisés ou envisagés — LMS avec IA, proctoring, chatbots, outils de génération de contenu, CRM avec scoring. Identifiez pour chacun votre rôle (fournisseur ou déployeur) et la catégorie de risque.
- Étape 2 — Formation Article 4 du personnel (J+15 à J+60) : Déployez un programme de littératie IA adapté aux profils (formateurs, commerciaux, dirigeants). Documentez les formations réalisées et conservez les attestations.
- Étape 3 — Audit des fournisseurs (J+30 à J+90) : Pour chaque outil tiers à haut risque, demandez la documentation de conformité AI Act. Vérifiez que les contrats incluent les clauses de responsabilité et de transparence requises.
- Étape 4 — Mise en place de la supervision humaine (J+60 à J+120) : Pour les outils de proctoring et d'évaluation automatisée, définissez les procédures de révision humaine des décisions IA. Formez les équipes à ces procédures.
- Étape 5 — Documentation et gouvernance continue : Maintenez un registre des décisions algorithmiques, conservez les logs 6 mois minimum, et nommez un référent conformité IA interne.
AutomationDataCamp : conforme et formateur
AutomationDataCamp applique ces principes dans sa propre organisation et dans ses formations :
- Nos outils IA (assistants pédagogiques, générateurs d'exercices) sont clairement identifiés comme tels dans tous nos supports
- Aucun outil de reconnaissance d'émotions n'est utilisé dans nos classes virtuelles
- Nos certifications incluent une révision humaine systématique des évaluations automatisées
- Notre équipe a suivi un programme de littératie IA conforme à l'Article 4
Formez vos équipes à la conformité AI Act
Notre formation AI Act pour Organismes de Formation & Cabinets de Conseil (20h, certifiante, CPF éligible) couvre : cartographie des risques, Article 4 en pratique, audit des fournisseurs, et mise en place de la gouvernance IA. Éligible aux financements OPCO.
Voir la formation Conformité IA Demander un auditObligations spécifiques OPCO, Qualiopi, usages des outils IA en formation. Téléchargez la checklist opérationnelle.
Télécharger gratuitementArticles similaires
AI Act : Le Guide Complet pour les Entreprises en 2026
4 niveaux de risque, calendrier de conformité, obligations de gouvernance.
Lire la suiteRisques de l'IA & Sanctions : Ce que Risquent les Entreprises
35 M€ ou 7 % du CA : décryptage complet des amendes AI Act.
Lire la suite