Le TOP'Hauts du vendredi au Cabinet entre 30" et 3'. Pour ceux qui ont 3h ou 3 jours: une proposition de bibliographie pertinente à explorer.

TOP'HAUTS n°1 (2 mai 2025): les obligations de l'IA ACT

-

Le cabinet vous propose des TOP'HAUTS le vendredi: ce sont des aperçus sur des sujets difficiles, complexes mais essentiels pour lutter contre l'ignorance coupable dans un domaine en pointe: l'IA.
On y va progressivement mais surement et en plusieurs TOP'HAUTS en fonction du temps que vous avez pour lire: 30 secondes ou 3 minutes, 3h ou 3 jours.

Si vous avez besoin de plus de connaissances ou d'échanges, prenez RV pour un topo en visio ou par téléphone. Avec ou Sans abonnement.


TOP'HAUTS n°1 le règlement européen IA Act. 


Vous n'avez que 30 secondes?

Pour les entreprise qui veulent se mettre à l'IA: retenez ceci: l’IA Act impose aux entreprises une véritable culture de la conformité, avec des obligations incontournables, dont la plupart sont assorties de sanctions lourdes. Seules les obligations liées aux systèmes à risque minimal relèvent de la recommandation et non de la contrainte.



Vous avez 3 minutes? Voilà ce qu'il faut savoir sur le sujet:


Le règlement européen IA Act : obligations incontournables pour les entreprises et régime des sanctions

Le règlement européen sur l’intelligence artificielle, dit « IA Act », marque un tournant majeur pour toutes les entreprises qui souhaitent développer, déployer ou utiliser des systèmes d’IA dans l’Union européenne. Il impose un cadre strict, fondé sur le niveau de risque des systèmes, et distingue clairement les obligations sanctionnées de celles qui ne le sont pas.

1. Obligations incontournables et structurantes

A. Cartographie et classification des systèmes d’IA


  • Toute entreprise doit recenser et classer ses systèmes d’IA selon quatre niveaux de risque : inacceptable (interdit), élevé, spécifique de transparence, minimalAncre[1]Ancre[2].
  • Cette cartographie est le socle de la conformité et conditionne l’application des obligations suivantes.

B. Obligations pour les systèmes à haut risque

Pour les systèmes d’IA considérés comme « à haut risque » (ex. : recrutement, gestion RH, biométrie, éducation, infrastructures critiques), les obligations sont particulièrement exigeantes et leur non-respect est lourdement sanctionnéAncre[3]Ancre[1]Ancre[4]Ancre[5]Ancre[6] :
  • Marquage CE obligatoire avant la mise sur le marché ou l’utilisationAncre[3]Ancre[6].
  • Inscription dans la base de données européenne dédiéeAncre[3]Ancre[6].
  • Système de gestion des risques tout au long du cycle de vie de l’IAAncre[3]Ancre[1]Ancre[6].
  • Gouvernance des données : garantir la qualité, la non-discrimination et l’absence de biais dans les jeux de donnéesAncre[3]Ancre[6].
  • Documentation technique complète et tenue à disposition des autorités pendant 10 ansAncre[3]Ancre[4].
  • Système de gestion de la qualité pour assurer la conformité continueAncre[3]Ancre[6].
  • Déclaration de conformité et traçabilité des systèmesAncre[3]Ancre[6].
  • Surveillance humaine effective sur les décisions prises par l’IAAncre[3]Ancre[1].
  • Robustesse, exactitude et cybersécurité des systèmesAncre[3]Ancre[1].
  • Information et consultation du CSE avant tout déploiement en entrepriseAncre[5].

C. Obligations de transparence
  • Pour les systèmes qui interagissent directement avec le public (chatbots, générateurs de contenus), il est obligatoire d’informer clairement l’utilisateur qu’il a affaire à une IAAncre[3]Ancre[1]Ancre[4]Ancre[2].

D. Pratiques interdites
  • Certaines applications d’IA sont strictement prohibées : notation sociale, manipulation subliminale, exploitation de la vulnérabilité des personnes, identification biométrique à distance en temps réel dans l’espace public (hors exceptions légales)Ancre[3]Ancre[4]Ancre[2].

E. Formation et sensibilisation
  • En France, un module obligatoire de sensibilisation à l’éthique de l’IA doit être suivi par les salariés concernés d’ici juin 2025Ancre[1].

2. Obligations sanctionnées

Les obligations suivantes sont assorties de sanctions financières très lourdes en cas de non-respect :
Obligation violéeMontant maximal de la sanction
Pratiques interdites (art. 5)35 M€ ou 7 % du CA annuel mondial[7][4][8][9][6]
Manquement aux exigences pour IA à haut risque15 M€ ou 3 % du CA annuel mondial[4][8][9][6]
Défaut de transparence (risque spécifique)7,5 M€ ou 1 % du CA annuel mondial[4][8][9][6]
Fourniture d’informations inexactes7,5 M€ ou 1 % du CA annuel mondial[4][9][6]

Les autorités compétentes (CNIL, Commission européenne) peuvent également exiger le retrait immédiat du marché du système d’IA non conforme, en plus des amendesAncre[6].

3. Obligations non sanctionnées directement

Certaines obligations relèvent davantage de la bonne pratique ou de l’incitation, sans sanction directe prévue par le règlement :


  • Adoption de codes de bonne conduite pour les systèmes à risque minimalAncre[3]Ancre[2].
  • Utilisation des « bacs à sable réglementaires » pour tester des innovations sous supervisionAncre[3].
  • Recommandations pour la formation continue au-delà des modules obligatoiresAncre[1].

4. Ce que doit retenir une entreprise

  • La conformité à l’IA Act n’est pas optionnelle : elle s’impose à toute entreprise, quelle que soit sa taille, dès lors qu’elle développe, importe, distribue ou utilise des systèmes d’IA dans l’UEAncre[3]Ancre[1]Ancre[4].
  • Le niveau de risque du système d’IA détermine le niveau d’exigence et de sanction.
  • La non-conformité expose à des sanctions financières majeures, à des retraits de marché et à des risques réputationnels importantsAncre[7]Ancre[4]Ancre[8]Ancre[6].

Vous avez entre 3h et 3 jours? Pour aller plus loin: explorez un aperçu de notre bibliographie: 

1

entreprises.gouv.fr favicon
entreprises.gouv.fr/la-dge/actuali…
Le Règlement européen sur l'intelligence artificielle
Le 1ᵉʳ août 2024, le règlement européen sur l'intelligence artificielle (IA) est entré en vigueur. Ce règlement vise à garantir que le développement et l'utilisation des produits et productions de l'IA respectent les droits fondamentaux et les valeurs européennes.

2
valtus.fr favicon
Valtus
valtus.fr/2025/04/22/gou…
AI Act : un tournant pour la gouvernance de l'intelligence artificielle
L’Europe devient pionnière dans la régulation de l’intelligence artificielle. Zoom sur les impacts concrets de l’AI Act pour les organisations.

3
artificialintelligenceact.eu/fr/article/99
Article 99 : Sanctions | Loi de l'UE sur l'intelligence artificielle
Le non-respect de certaines pratiques en matière d'IA peut entraîner des amendes allant jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel d'une ...

4
cloud-temple.com/lia-act-expliq…
L'IA Act expliqué : obligations et enjeux pour les entreprises
Découvrez l'IA Act, la nouvelle réglementation européenne sur l'intelligence artificielle : classification des risques, obligations des acteurs et sanctions applicables dès 2024.

5
Les Echos Solutions
solutions.lesechos.fr/juridique/loi-…
L'IA Act : ce que la nouvelle réglementation européenne change ...
Le déploiement de l’intelligence artificielle (IA) s’accélère à un rythme inédit dans les entreprises françaises. Selon les dernières estimations, 40 ...

6
info.gouv.fr
info.gouv.fr/actualite/ques…
Qu'est-ce que l'« AI Act » ? | info.gouv.fr
L'intelligence artificielle occupe une place de plus en plus importante dans notre vie quotidienne, à tel point que les députés européens ont adopté la première réglementation complète le 13 mars 2024. Mais de quoi s'agit-il exactement ?

7
cnil.fr
cnil.fr/fr/entree-en-v…
Entrée en vigueur du règlement européen sur l'IA - CNIL
Le règlement européen sur l’IA (ou AI Act) vient d’être publié au Journal officiel de l’Union européenne (JOUE) et entrera progressivement en application à partir du 1er aout 2024. Qui est concerné ? Qu’est-ce qui distingue le règlement IA du RGPD et en quoi se complètent-ils ? Présentation du règlement IA


8
Editions Législatives
editions-legislatives.fr/actualite/un-c…
Un cadre européen pour l'intelligence artificielle : obligations et ...
L'IA act impose une série d'obligations aux fournisseurs, déployeurs et distributeurs de systèmes d'IA à haut risque.


9
bigmedia.bpifrance.fr
bigmedia.bpifrance.fr/nos-actualites…
IA Act : comment se conformer à la nouvelle loi européenne sur l'IA ?
En mars dernier, les eurodéputés ont adopté un projet de loi visant à encadrer le développement de l’intelligence artificielle (IA) sur le sol européen. Opportunité pour les uns, frein à l’innovation pour les autres, l’IA Act appelle en tout cas les entreprises et startups françaises à une mise en conformité scrupuleuse. Niveau de risque, « bac à sable » réglementaire, Big média revient sur les mesures phares de l’IA Act qui s’appliqueront aux entreprises.

10
village-justice.com/articles/entre…
Retour sur les points clés de l'IA ACT avant la prochaine échéance ...
Le règlement sur l’intelligence artificielle du 13 juin 2024 est le premier texte international qui porte l’ambition de réguler l’intelligence artificielle (« IA ») selon une approche axée sur les risques, afin de soutenir le développement et le déploiement responsables d’une IA fiable, éthique, transparente et sécurisée tout en renforçant la (...)

11

vie-publique.fr favicon
vie-publique.fr/questions-repo…
Intelligence artificielle : le cadre juridique européen de l'IA en sept ...
Le règlement européen sur l'intelligence artificielle (IA) du 13 juin 2024 est paru au Journal officiel de l'Union européenne du 12 juillet.


12
hardis-group.com/blog/ia-act-re…
IA Act, la réglementation de l'Intelligence artificielle en Europe
L'IA Act impose aux entreprises de nouvelles obligations légales, notamment en matière de conformité, de documentation et de surveillance des ...

13
AI Act : Quelles obligations s'appliquent dès le 2 février 2025 ?
Le 2 février 2025, les chapitres 1 et 2 du RIA entrent en vigueur.


14
artificialintelligenceact.eu/fr/article/26
Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque
Il s'agit notamment d'utiliser les systèmes conformément aux instructions, d'assurer une surveillance humaine, de veiller à la pertinence des données d'entrée ...

15
rsm.global/france/fr/insi…
AI Act: Comment le règlement européen transforme les entreprises?
Les entreprises devront également recruter, former et faire évoluer certaines fonctions en des experts de gouvernance de l'IA, notamment pour ...

16
village-justice.com/articles/intel…
Intelligence artificielle en 2025 : quelles sont les obligations des ...
Ces mesures visent à minimiser les risques potentiels pour la société, notamment ceux liés à la discrimination, à la surveillance excessive ...

17
digital-strategy.ec.europa
digital-strategy.ec.europa.eu/fr/policies/re…
Législation sur l'IA | Bâtir l'avenir numérique de l'Europe
La législation sur l'IA établit un ensemble clair de règles fondées sur les risques pour les développeurs et les déployeurs d'IA en ce qui concerne les ...

18
helloworkplace
helloworkplace.fr/ia-act-changem…
IA Act : ce qui change pour les entreprises dès février 2025
Adopté en mai 2024, l'IA Act vise à protéger les droits fondamentaux, la santé et la sécurité des personnes en prohibant ou réglementant les ...

19
kokoroe
kokoroe.co/article/format…
AI Act 2025 : Comprendre la Nouvelle Réglementation Européenne ...
Les entreprises qui utilisent des IA à risque élevé doivent réaliser des évaluations régulières et des audits pour s'assurer que leurs systèmes ...

20
artificialintelligenceact.eu/fr/small-busin…
Guide de la loi sur l'IA à l'intention des petites entreprises - EU AI Act
Obligations proportionnelles pour les PME qui fournissent des modèles d'IA à usage général. Un autre aspect de la loi sur l'IA destiné à ...

21
artificialintelligenceact.eu/fr/article/50
Article 50 : Obligations de transparence pour les fournisseurs et les ...
Cet article stipule que les entreprises doivent informer les déployeurs lorsqu'ils interagissent avec un système d'IA, à moins que cela ne soit évident ou que ...

22

sia-partners.com favicon

sia-partners.com
sia-partners.com/fr/perspective…
Artificial Intelligence Act : Que faut-il savoir ? - SIA Partners
L'intelligence artificielle apporte des avantages économiques et sociétaux, mais génère aussi de nouveaux risques pour les individus. L’Artificial Intelligence Act présente une approche réglementaire européenne de l'IA basée sur les risques, sans entraver abusivement le développement technologique.


23
leto.legal/guides/ai-act-…
AI Act : quelles sont les règles à respecter pour être conforme ?
Vous développez des solutions intégrant l’intelligence artificielle ? Découvrez les règles à respecter pour vous conformer à l’AI Act.

24
complethics4ia.com/ai-act-sanctio…
AI Act Sanctions de la législation sur l'IA - ComplEthics4IA
Les amendes en cas de violation du règlement sur l'IA ont été fixées en pourcentage du chiffre d'affaires annuel mondial de l'entreprise incriminée.

25
artificialintelligenceact.eu/fr
La loi européenne sur l'intelligence artificielle - EU AI Act
Tout ce qu'il faut savoir sur la loi sur l'IA, pour les petites et moyennes entreprises (PME) dans l'UE et au-delà. Offres d'emploi à l'Office européen d' ...

26
village-justice.com/articles/act-l…
IA Act : les obligations des déployeurs de systèmes d'intelligence ...
L'article 26.9 du Règlement oblige les déployeurs à mener une analyse d'impact sur la protection des données à caractère personnel, comme l' ...

L’AI Act est un règlement historique adopté par l’Union européenne en avril 2024. Il s’agit de la première réglementation complète sur l’IA par un régulateur majeur dans le monde, qui vise à façonner le développement et l’utilisation de l’IA dans l’UE. Il interdit les IA à risque inacceptable et impose des exigences strictes pour les IA à haut risque. Il s’applique à garantir une IA développée et utilisée de manière responsable et éthique. L’IA Act : quésaco ? Le premier élément à retenir de ce règlement sur l’intelligence artificielle est la classification des systèmes d’IA en fonction du niveau de risque. L’AI Act classe les systèmes d’IA en quatre catégories de risque : inacceptable : ceux qui utilisent la reconnaissance faciale pour la surveillance à distance en temps réel dans les espaces publics sont interdits ; élevé : les systèmes de notation de crédit, la correction d’examens, le transport ou le recrutement doivent respecter des critères stricts vérifiés par des organismes agréés pour obtenir l’autorisation d’entrer sur le marché européen ; limité : les chatbots sont autorisés à condition de respecter certaines obligations de transparence pour avertir le citoyen qui interagit avec eux ; minimal : les jeux vidéo ou les filtres anti-spams n’ont pas de limitation dans ce texte. D’une manière générale, les fournisseurs de systèmes d’IA ont des obligations d’une part de sécurité et d’autre part d’informations claires et transparentes envers les utilisateurs. Ils doivent apporter des précisions quant au fonctionnement, aux capacités et aux limites de la machine. L’objectif est de s’assurer que l’utilisateur fait des choix réellement éclairés. Le cœur de la réglementation concerne les systèmes à risque élevé, notamment ceux utilisés dans des secteurs sensibles tels que la santé, l’éducation, la gestion des ressources humaines ou encore la sécurité publique. Pour ces applications, l’IA Act impose des exigences strictes, comme la nécessité de garantir la sécurité des utilisateurs, d’assurer la transparence des algorithmes et de démontrer l’absence de biais discriminatoires. Les entreprises devront également mettre en place des mécanismes de gestion et de suivi pour prouver leur conformité aux normes. Par ailleurs, l’IA Act accorde une attention particulière à la transparence des systèmes d’IA utilisés dans des contextes d’interaction directe avec les utilisateurs. Ce règlement marque une avancée importante pour harmoniser les pratiques en matière d’intelligence artificielle au sein de l’Union européenne. Il vise à protéger les droits fondamentaux des citoyens tout en offrant aux entreprises un cadre clair pour innover de manière responsable. Cette approche devrait favoriser une adoption plus large et plus sereine des technologies d’IA en Europe, en renforçant la confiance des utilisateurs et des parties prenantes. Pour les entreprises, l’IA Act représente à la fois un défi et une opportunité. Il impose une réflexion approfondie sur les pratiques de développement, la gestion des données et la conformité réglementaire. Mais il offre aussi un avantage compétitif en encourageant une IA éthique et transparente. En anticipant ces changements, les organisations pourront s’aligner sur les attentes des consommateurs et des régulateurs, et ainsi s’inscrire durablement dans l’écosystème numérique européen. Les obligations pour les bureaux d’études L’IA Act impose des obligations non seulement aux développeurs de systèmes d’IA, mais aussi aux entreprises qui les utilisent dans le cadre de leurs activités. Ces obligations varient selon le type d’IA utilisée et son niveau de risque, même si l’entreprise ne participe pas directement à son développement. Voici les principales responsabilités à connaître. Identifier et comprendre le risque de l’IA utilisée L’IA Act classe les systèmes d’IA en quatre niveaux de risque : inacceptable, élevé, limité et minimal. Les entreprises doivent d’abord évaluer si les outils qu’elles utilisent appartiennent à l’une de ces catégories. Par exemple, un logiciel d’aide à la décision dans les ressources humaines ou un système de reconnaissance faciale dans un espace public est considéré à risque élevé. En revanche, un assistant virtuel ou un outil d’analyse de données à usage interne pourrait relever d’un risque limité ou minimal. Garantir la transparence et informer les utilisateurs Pour les systèmes d’IA à risque limité, l’obligation principale est d’assurer une transparence minimale. Si vous utilisez un chatbot ou un assistant virtuel, vous devez informer vos employés ou vos clients qu’ils interagissent avec un système d’IA, et non un humain. Cette information doit être claire et accessible. Contrôler la conformité des fournisseurs Les entreprises qui intègrent des systèmes d’IA fournis par des tiers doivent s’assurer que ces systèmes respectent les exigences de l’IA Act. Cela implique de vérifier que le fournisseur a effectué les évaluations de conformité nécessaires pour un système à risque élevé, comme la documentation technique, les tests de sécurité et la gestion des données. Bien que l’obligation principale incombe au développeur, l’utilisateur doit choisir des fournisseurs fiables et demander des garanties de conformité. Former et responsabiliser les équipes internes Même si vous n’êtes pas le développeur, l’utilisation de l’IA nécessite une formation des équipes qui l’exploitent. Cela inclut la sensibilisation aux limites de l’IA, aux biais potentiels et aux risques éthiques. Vos collaborateurs doivent savoir comment interpréter les résultats produits par l’IA et éviter une dépendance aveugle à ses recommandations. Surveiller l’usage de l’IA et signaler les incidents Les entreprises utilisant des systèmes à risque élevé doivent mettre en place des procédures de suivi pour s’assurer que l’IA fonctionne comme prévu. Si un incident grave se produit (par exemple, une décision injuste ou un dysfonctionnement ayant des conséquences sérieuses), elles sont tenues de le signaler aux autorités compétentes. Respecter les droits des utilisateurs Enfin, les entreprises doivent garantir que l’utilisation de l’IA respecte les droits fondamentaux des individus. Cela inclut la protection des données personnelles conformément au RGPD, ainsi que la possibilité pour les utilisateurs de comprendre les décisions prises ou influencées par l’IA, et de les contester le cas échéant. Même si elle ne développe pas de système d’intelligence artificielle, votre entreprise doit s’assurer que son usage est conforme aux exigences de l’IA Act. Cela passe par une sélection rigoureuse des outils utilisés, la transparence vis-à-vis des utilisateurs, le respect des droits fondamentaux et la mise en place de procédures internes adaptées. Ces obligations visent à garantir une utilisation éthique et responsable de l’IA, tout en renforçant la confiance des utilisateurs et partenaires





Commentaires

Rédigez votre commentaire :

<% errorMessage %>
<% commentsCtrl.successMessage %>
<% commentsCtrl.errorMessage %>

Les réactions des internautes

a réagi le

<% comment.content %>

  • a réagi le

    <% subcomment.content %>

Répondre à ce fil de discussion
<% errorMessage %>
Aucun commentaire n'a été déposé, soyez le premier à commenter !