AI Act : de quoi s’agit-il ?
Dans un monde de plus en plus façonné par l’intelligence artificielle (IA), l’Europe prend les devants en matière de réglementation avec l’Artificial Intelligence Act (ou « AI Act » ou « AIA » ou « règlement IA » ou « RIA »).
L’AI Act est une réglementation visant à garantir que les systèmes d’IA développés et déployés dans l’Union Européenne (UE) respectent les normes éthiques et les droits fondamentaux des citoyens.
Portée et Application de l’AI Act
Cette réglementation est sur le point de changer la donne. Entré en vigueur le 1er Août 2024, l’AI Act s’applique à toutes les organisations, grandes ou petites, qui développent ou utilisent des systèmes d’IA en Europe. Que vous soyez une startup innovante, un grand groupe établi, ou une organisation publique, l’AI Act vous concerne.
L’AI Act ne se limite ni aux frontières nationales, ni aux frontières de l’Europe, puisqu’il s’applique aux opérateurs établis dans le territoire de l’Union européenne, mais également à ceux étant établis dans un pays tiers, dans la mesure où leurs systèmes d’IA sont utilisés dans l’UE.
Il s’agit par ailleurs d’une règlementation évolutive ! Le texte prévoit la possibilité pour les institutions européennes de faire modifier le texte au fil du temps afin de le faire correspondre avec l’évolution de l’état de l’art en matière de technologie et d’IA.
Principales dispositions de l’AI Act
L’AI Act impose un certain nombre d’obligations relatives aux risques liés à l’IA et à leur gestion, mais également des obligations administratives de documentation et de contrôle. Pour cela, la réglementation se base sur une échelle de risque allant des IA relevant de « pratiques interdites », aux modèles d’IA générale en passant par les systèmes d’IA considérés comme « à Haut Risque ».
En fonction de leur qualification, un régime d’obligation s’appliquera, étant plus ou moins lourd en fonction du risque pour la santé, la sécurité et les droits fondamentaux des personnes physiques.
Parmi les obligations principales, on peut noter :
- Une interdiction stricte de certains systèmes d’IA (« pratiques interdites ») telle que des IA de social scoring ou de décisions judiciaires automatisées sans intervention humaine ;
- Pour les IA considérées comme à Haut Risque :
- une analyse des risques que pourrait poser le système d’IA vis-à-vis de la santé, la sécurité ou les droits fondamentaux des personnes concernées ;
- le maintien d’une documentation technique très étendue, et d’un système de gestion de la qualité ;
- une gouvernance des données utilisées, la journalisation des évènements, un contrôle obligatoire par des humains, l’exactitude et la sécurité des données ;
- la transparence auprès des utilisateurs et/ou les personnes concernées,
- réaliser une déclaration de conformité, et apposer un marquage CE, inscrire le système dans une base de données dédiée de l’UE ;
- Pour tous les systèmes d’IA, des obligations de transparence et de documentation des analyses réalisées.
Conséquences du Non-Respect de l’AI Act
En cas de non-respect des exigences de la règlementation, diverses sanctions (amendes administratives, avertissements, mesures non-monétaires, etc.) pourront être appliquées selon les législations des pays membres.
L’AI Act définit néanmoins les montants des amendes administratives qui pourront aller, en fonction des violations, de 750 000 euros à 35 millions d’euros ou 7% du CA annuel mondial pour une entreprise.
Finalement, l’AI Act marque le début d’une ère nouvelle et passionnante pour l’IA en Europe.
En respectant ces obligations, nous pouvons construire un avenir où l’IA est synonyme de progrès et de confiance car justement, au-delà des sanctions financières, c’est le développement d’une IA responsable et éthique qui est la réelle motivation de cette règlementation.