
Le TOP'Hauts du vendredi au Cabinet entre 30" et 3'. Pour ceux qui ont 3h ou 3 jours: une proposition de bibliographie pertinente à explorer.
TOP'HAUTS n°1 (2 mai 2025): les obligations de l'IA ACT
-
Le cabinet vous propose des TOP'HAUTS le vendredi: ce sont des aperçus sur des sujets difficiles, complexes mais essentiels pour lutter contre l'ignorance coupable dans un domaine en pointe: l'IA.
On y va progressivement mais surement et en plusieurs TOP'HAUTS en fonction du temps que vous avez pour lire: 30 secondes ou 3 minutes, 3h ou 3 jours.
Si vous avez besoin de plus de connaissances ou d'échanges, prenez RV pour un topo en visio ou par téléphone. Avec ou Sans abonnement.
TOP'HAUTS n°1 le règlement européen IA Act.
Vous n'avez que 30 secondes?
Pour les entreprise qui veulent se mettre à l'IA: retenez ceci: l’IA Act impose aux entreprises une véritable culture de la conformité, avec des obligations incontournables, dont la plupart sont assorties de sanctions lourdes. Seules les obligations liées aux systèmes à risque minimal relèvent de la recommandation et non de la contrainte.
Vous avez 3 minutes? Voilà ce qu'il faut savoir sur le sujet:
Le règlement européen IA Act : obligations incontournables pour les entreprises et régime des sanctions
Le règlement européen sur l’intelligence artificielle, dit « IA Act », marque un tournant majeur pour toutes les entreprises qui souhaitent développer, déployer ou utiliser des systèmes d’IA dans l’Union européenne. Il impose un cadre strict, fondé sur le niveau de risque des systèmes, et distingue clairement les obligations sanctionnées de celles qui ne le sont pas.
1. Obligations incontournables et structurantes
A. Cartographie et classification des systèmes d’IA
- Toute entreprise doit recenser et classer ses systèmes d’IA selon quatre niveaux de risque : inacceptable (interdit), élevé, spécifique de transparence, minimal
[1]
[2].
- Cette cartographie est le socle de la conformité et conditionne l’application des obligations suivantes.
B. Obligations pour les systèmes à haut risque
- Marquage CE obligatoire avant la mise sur le marché ou l’utilisation
[3]
[6].
- Inscription dans la base de données européenne dédiée
[3]
[6].
- Système de gestion des risques tout au long du cycle de vie de l’IA
[3]
[1]
[6].
- Gouvernance des données : garantir la qualité, la non-discrimination et l’absence de biais dans les jeux de données
[3]
[6].
- Documentation technique complète et tenue à disposition des autorités pendant 10 ans
[3]
[4].
- Système de gestion de la qualité pour assurer la conformité continue
[3]
[6].
- Déclaration de conformité et traçabilité des systèmes
[3]
[6].
- Surveillance humaine effective sur les décisions prises par l’IA
[3]
[1].
- Robustesse, exactitude et cybersécurité des systèmes
[3]
[1].
- Information et consultation du CSE avant tout déploiement en entreprise
[5].
C. Obligations de transparence
- Pour les systèmes qui interagissent directement avec le public (chatbots, générateurs de contenus), il est obligatoire d’informer clairement l’utilisateur qu’il a affaire à une IA
[3]
[1]
[4]
[2].
D. Pratiques interdites
- Certaines applications d’IA sont strictement prohibées : notation sociale, manipulation subliminale, exploitation de la vulnérabilité des personnes, identification biométrique à distance en temps réel dans l’espace public (hors exceptions légales)
[3]
[4]
[2].
E. Formation et sensibilisation
- En France, un module obligatoire de sensibilisation à l’éthique de l’IA doit être suivi par les salariés concernés d’ici juin 2025
[1].
2. Obligations sanctionnées
Les obligations suivantes sont assorties de sanctions financières très lourdes en cas de non-respect :
Obligation violée | Montant maximal de la sanction |
Pratiques interdites (art. 5) | 35 M€ ou 7 % du CA annuel mondial[7][4][8][9][6] |
Manquement aux exigences pour IA à haut risque | 15 M€ ou 3 % du CA annuel mondial[4][8][9][6] |
Défaut de transparence (risque spécifique) | 7,5 M€ ou 1 % du CA annuel mondial[4][8][9][6] |
Fourniture d’informations inexactes | 7,5 M€ ou 1 % du CA annuel mondial[4][9][6] |
Les autorités compétentes (CNIL, Commission européenne) peuvent également exiger le retrait immédiat du marché du système d’IA non conforme, en plus des amendes
3. Obligations non sanctionnées directement
Certaines obligations relèvent davantage de la bonne pratique ou de l’incitation, sans sanction directe prévue par le règlement :
- Adoption de codes de bonne conduite pour les systèmes à risque minimal
[3]
[2].
- Utilisation des « bacs à sable réglementaires » pour tester des innovations sous supervision
[3].
- Recommandations pour la formation continue au-delà des modules obligatoires
[1].
4. Ce que doit retenir une entreprise
- La conformité à l’IA Act n’est pas optionnelle : elle s’impose à toute entreprise, quelle que soit sa taille, dès lors qu’elle développe, importe, distribue ou utilise des systèmes d’IA dans l’UE
[3]
[1]
[4].
- Le niveau de risque du système d’IA détermine le niveau d’exigence et de sanction.
- La non-conformité expose à des sanctions financières majeures, à des retraits de marché et à des risques réputationnels importants
[7]
[4]
[8]
[6].
Vous avez entre 3h et 3 jours? Pour aller plus loin: explorez un aperçu de notre bibliographie:
1
2
3
4
5
6
7
8
Editions Législatives
10
11
12
hardis-group.com/blog/ia-act-re…
13
15
16
17
18
19
20
21
22
25
26
Commentaires
Rédigez votre commentaire :
Les réactions des internautes
<% comment.content %>
<% subcomment.content %>