L’AI Act, c’est quoi ?
C’est le premier cadre légal au monde qui régule l’Intelligence Artificielle. Elle couvre tous les acteurs (fournisseurs, importateurs, distributeurs, utilisateurs professionnels) du monde de l’entreprise. L’objectif de la norme : sécuriser, fiabiliser et encadrer l’usage de l’IA (= AI en anglais) sans tuer l’innovation !
Elle a été adoptée officiellement en mars 2024, avec un calendrier de mise en place (progressif) qui court jusqu’en 2027.
L’AI ACT : une approche par niveaux et par risques
Rassurez-vous, l’IA ne va pas être interdite en entreprise : Le règlement classe les systèmes par 5 niveaux de risques.
⚠️ Risque inacceptable
Il s’agit des systèmes d’IA utilisés pour manipuler, exploiter des vulnérabilités, faire de la notation sociale, la catégorisation biométrique (ethnie, religion, bord politique…).
⚠️ Haut-risque
La plupart des IA qui rentrent dans cette catégorie sont déjà couvertes par des réglementations européennes (réglementation sur les dispositifs médicaux etc). Mais, de nouveaux domaines sont concernés comme l’éducation, la formation professionnelle, l’accès à des services privés essentiels (crédit, assurance) et les prestations publiques essentielles (santé, appels d’urgence, juridique).
⚠️ Risque spécifique
Il concerne les systèmes d’IA qui interagissent avec de vraies personnes, génèrent des contenus ou détectent des émotions. Il faut alors informer l’utilisateur qu’il interagit avec une IA.
⚠️ Risque associé aux IA d’usage général
Les développeurs doivent fournir un résumé détaillé et transparent des données d’entraînement et des simulations qu’ils ont utilisés, notamment pour s’assurer du respect des droits d’auteur.
⚠️ Risque systémique associé aux IA d’usage général
Pour les IA d’usage général ayant nécessité une puissance de calcul importante, des tests supplémentaires s’ajoutent (évaluation, atténuation des risques, consommation d’énergie, cybersécurité).
Les dates clés de la mise en place de l’AI ACT
- Juin 2024 : adoption officielle → Le texte est applicable dans toute l’UE.
- 2025 : Les interdictions de type « risques inacceptables » deviennent applicables pour les entreprises.
- 2026 (milieu d’année) : Entrée en vigueur pour les IA à haut risque (obligations complètes).
- 2027 : généralisation et contrôles renforcés à toutes les entreprises qui utilisent de l’IA .
Pourquoi l’AI ACT a été rédigé ?
Aujourd’hui, les IA sont un formidable levier de croissance, d’idées, d’automatisation des tâches en entreprise.
Mais, elles peuvent aussi servir à tromper et arnaquer en masse, de manière ultra personnalisée. De même, injecter des données privées / confidentielles dans une IA, c’est prendre le risque qu’elles soient exploitées par la concurrence ou diffusées sur le net.
Qu’est-ce qui sera demandé aux entreprises ?
Les systèmes d’IA à haut risque devront répondre à certaines exigences :
- Gestion des risques,
- Qualité et traçabilité des données,
- Documentation et marquage CE,
- Transparence et explicabilité,
- Supervision humaine,
- Gestion des attaques et cybersécurité.
Se préparer à l’AI Act grâce à l’ISO 42001
L’ISO 42001 spécifie les exigences pour établir, mettre en œuvre et améliorer un système de management de l’intelligence artificielle (SMIA) au sein de votre entreprise.
Cette norme repose sur l’évaluation de 3 critères :
1. La Responsabilité
Avec l’augmentation de l’utilisation de l’intelligence artificielle dans divers secteurs, il est crucial de garantir que les décisions prises par ces systèmes soient contrôlés, responsables et éthiques. En effet, les algorithmes peuvent prendre des décisions biaisées s’ils ne sont pas correctement surveillés.
2. La Fiabilité
Comment s’assurer que votre IA fonctionne conformément aux attentes ? Par exemple, vous avez développé un modèle d’IA pour prédire la demande de vos produits et vos stocks. Mais comment vérifier que ce modèle est fiable et qu’il continuera à fournir des prédictions précises dans des conditions variées ?
3. La Sécurité
La sécurité en intelligence artificielle ne se limite pas à la protection des données. Elle englobe également la protection contre les manipulations et les actes malveillants.
👉 Chez France Certification, nous accompagnons les entreprises à se préparer sereinement ! Nos spécialistes cybersécurité vous aident à mettre en place la norme de manière simple et compréhensible par tous les collaborateurs en interne.
Récap’ FAQ – Comprendre l’AI ACT en 5 questions
1. Qu’est-ce que l’AI Act ?
C’est le nouveau règlement européen qui encadre l’utilisation de l’intelligence artificielle. Il vise à protéger les citoyens tout en favorisant une innovation responsable.
2. Quand entre-t-il en vigueur ?
Adopté en 2024, il sera appliqué progressivement :
- 2025 : Interdiction des usages jugés dangereux,
- 2026 : Obligations pour les IA “à haut risque”,
- 2027 : Contrôles généralisés à toutes les entreprises qui ont recours à l’IA.
3. Qui est concerné ?
Toutes les organisations qui développent, utilisent ou intègrent de l’IA dans leurs services ou produits, quelle que soit leur taille.
4. Que demande l’AI Act aux entreprises ?
Selon le niveau de risque, les obligations varient :
- Transparence
- Supervision humaine
- Qualité et traçabilité des données,
- Documentation technique
- Tests et procédures en cas de fuite des données, hack…
5. Comment s’y préparer ?
En mettant en place un système de management de l’IA basé sur l’ISO 42001, la première norme internationale pensée pour. Cela permet de démontrer sa conformité et de rassurer les clients !
Source : Site du Gouvernement