Le 12 février dernier, Catherine, DRH d’un groupe industriel de 300 salariés installé près d’Aix-en-Provence, a reçu un email de son cabinet juridique qui lui a glacé le sang. Objet : « Règlement européen sur l’intelligence artificielle — Actions à mener avant août 2026. » Elle a ouvert la pièce jointe, parcouru les 15 pages en diagonale, et référéncé mentalement le document dans la catégorie « encore un truc européen dont personne ne s’occupe ». Puis elle a appelé son PDG pour lui en parler. Il n’était pas au courant.
Six mois. C’est le temps qu’il reste à Catherine, à son PDG, et à des dizaines de milliers de dirigeants français pour se mettre en conformité avec le règlement le plus ambitieux jamais adopté sur l’intelligence artificielle. Et la plupart ne le savent pas encore.
Chez EIYU, nous formons des dirigeants et des managers à l’intelligence artificielle depuis plusieurs années. Ce que nous observons en ce moment est préoccupant : une immense majorité d’entreprises de taille intermédiaire n’a aucune idée de ce que l’AI Act implique concrètement pour elles. Cet article est là pour combler ce vide.
L’AI Act en 30 secondes : de quoi parle-t-on ?
L’AI Act (Règlement européen sur l’intelligence artificielle) est le premier cadre juridique au monde qui réglemente spécifiquement l’utilisation de l’IA. Adopté par l’Union européenne, il est entré en vigueur le 1er août 2024 avec une mise en application progressive. Les interdictions des pratiques à risque inacceptable s’appliquent depuis février 2025. Et la pleine application, avec sanctions nationales, entre en vigueur le 2 août 2026.
Ce qui rend ce règlement unique, c’est qu’il ne cible pas seulement les entreprises technologiques. Il s’applique à toute organisation qui utilise, déploie ou fournit des systèmes d’intelligence artificielle. Si vos équipes utilisent ChatGPT, des outils d’analyse prédictive, des logiciels de tri de CV automatisé, ou même des chatbots sur votre site web, vous êtes concerné.
Les trois niveaux de risque qui vous concernent
L’AI Act classe les systèmes d’IA en quatre catégories de risque, et c’est cette classification qui détermine vos obligations.
Risque inacceptable (interdit depuis février 2025). Certaines utilisations de l’IA sont purement et simplement prohibées : la manipulation subliminale, le scoring social à la chinoise, la reconnaissance faciale en temps réel dans l’espace public (sauf exceptions). La plupart des entreprises classiques ne sont pas concernées par cette catégorie, mais il est important de vérifier.
Risque élevé (obligations lourdes dès août 2026). C’est la catégorie qui concerne le plus d’entreprises sans qu’elles le sachent. Sont considérés à haut risque les systèmes d’IA utilisés pour le recrutement et la gestion des ressources humaines, l’évaluation de la solvabilité, l’accès aux services essentiels, et certains usages dans l’éducation. Si vous utilisez un outil d’IA pour pré-sélectionner des CV, scorer des candidatures ou évaluer la performance de vos salariés, vous êtes dans le haut risque.
Risque limité (obligations de transparence). Les chatbots, les systèmes de génération de contenu, les deepfakes — tous doivent désormais informer l’utilisateur qu’il interagit avec une IA. Si votre site web utilise un chatbot, vous devez l’indiquer clairement.
Risque minimal (pas d’obligation spécifique). Les filtres anti-spam, les correcteurs orthographiques, les outils de recommandation basiques. Mais attention : même pour ces usages, l’AI Act impose désormais une obligation générale de compétences en IA pour les équipes qui manipulent ces technologies.
L’obligation de compétences : la bombe à retardement
C’est la disposition la moins médiatisée et pourtant la plus transversale de l’AI Act. L’article 4 du règlement impose à toutes les organisations qui déploient des systèmes d’IA de garantir un « niveau suffisant de maîtrise de l’IA » chez les personnes qui les utilisent ou les supervisent.
En clair : si vos collaborateurs utilisent des outils d’IA — même aussi banals que ChatGPT — vous devez pouvoir démontrer qu’ils ont été formés à leur utilisation, qu’ils comprennent les risques associés, et qu’ils sont capables d’exercer une supervision humaine adéquate. Et à partir d’août 2026, des sanctions nationales seront applicables en cas de non-conformité.
C’est précisément la raison pour laquelle nous constatons chez EIYU une explosion de la demande pour nos formations en intelligence artificielle. Les dirigeants et les DRH comprennent que former leurs équipes n’est plus un choix stratégique. C’est une obligation réglementaire.
Ce que vous devez faire avant août 2026 : le plan en 5 étapes
Étape 1 : Cartographier vos usages d’IA (semaine 1-2). Faites un inventaire exhaustif de tous les outils d’IA utilisés dans votre organisation, officiellement ou non. Incluez les outils des éditeurs de logiciels que vous utilisez déjà (CRM, ATS, ERP) qui intègrent désormais des fonctionnalités d’IA. Vous serez probablement surpris par l’étendue de votre exposition.
Étape 2 : Classifier vos usages par niveau de risque (semaine 3). Pour chaque outil identifié, déterminez s’il relève du risque élevé, limité ou minimal. Portez une attention particulière aux outils RH (recrutement, évaluation, formation) qui sont le secteur le plus exposé au risque élevé dans la plupart des entreprises.
Étape 3 : Former vos équipes (mois 1-3). C’est l’action la plus structurante et la plus urgente. La formation doit couvrir les fondamentaux de l’IA, les risques spécifiques à votre secteur, les bonnes pratiques d’utilisation, et les obligations du règlement. Elle doit être adaptée aux différents niveaux de votre organisation : dirigeants, managers, équipes opérationnelles.
Étape 4 : Mettre en place une gouvernance IA (mois 2-4). Désignez un référent IA interne, rédigez une charte d’utilisation de l’IA, et établissez des procédures de validation pour les nouveaux outils. Cette gouvernance n’a pas besoin d’être bureaucratique. Deux pages de charte et un référent identifié suffisent pour la grande majorité des PME et ETI.
Étape 5 : Documenter votre conformité (mois 4-5). Conservez les preuves de vos actions : attestations de formation, charte signée, procès-verbaux de réunion, cartographie des usages. En cas de contrôle, c’est cette documentation qui démontrera votre bonne foi et votre diligence.
Les sanctions : ce que vous risquez concrètement
L’AI Act prévoit trois paliers de sanctions. Jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les pratiques interdites. Jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires pour la non-conformité aux obligations sur les systèmes à haut risque. Et jusqu’à 7,5 millions d’euros ou 1,5 % du chiffre d’affaires pour la fourniture d’informations inexactes aux autorités.
Pour une PME ou une ETI, même le palier le plus bas représente un risque existentiel. Le règlement prévoit toutefois des dispositions spécifiques pour les PME, avec des sanctions proportionnées à la taille de l’entreprise. Mais proportionné ne signifie pas négligeable.
L’opportunité derrière la contrainte
Revenons à Catherine, notre DRH. Après avoir pris la mesure du règlement, elle a présenté un plan d’action à son PDG. Plutôt que de cadrer la conformité comme une contrainte réglementaire de plus, elle l’a positionnée comme une opportunité stratégique : structurer l’utilisation de l’IA dans l’entreprise, former les équipes, et prendre un avantage concurrentiel sur les concurrents qui attendraient le dernier moment.
Trois mois plus tard, l’entreprise avait cartographié ses usages, formé ses managers aux fondamentaux de l’IA, et mis en place une charte d’utilisation. Mais le bénéfice le plus inattendu a été humain : les équipes se sont senties rassurées de savoir que la direction prenait le sujet au sérieux, investissait dans leur montée en compétences, et ne les laissait pas seuls face à une technologie qui les inquiétait.
C’est exactement l’approche que nous défendons chez EIYU : l’IA est un outil puissant, mais c’est le leadership humain qui détermine comment cet outil est utilisé. Former vos équipes à l’IA, ce n’est pas seulement cocher une case réglementaire. C’est investir dans leur confiance, leur autonomie et leur capacité d’adaptation. C’est faire acte de leadership.
Si vous souhaitez anticiper l’AI Act et transformer cette obligation en avantage compétitif, découvrez nos formations en intelligence artificielle ou réservez une consultation gratuite pour évaluer votre niveau de préparation.


