L'UE adopte la définition de l'OCDE pour l'IA dans la loi sur l'IA

L'intelligence artificielle (IA) a fait l'objet de débats et d'examens intenses au cours des dernières années. L'Union européenne (UE) a reconnu la nécessité d'une législation pour réglementer l'IA afin de garantir qu'elle ne cause pas de préjudice aux individus ou à la société dans son ensemble. La loi sur l'IA de l'UE est une proposition législative qui vise à réglementer l'IA en fonction de sa capacité à causer des dommages. L'une des parties les plus sensibles politiquement du dossier est la définition de l'IA, qui définira la portée du règlement de l'UE sur l'IA.

   
Le 3 mars 2023, les représentants des groupes politiques du Parlement européen travaillant sur la loi sur l'IA sont parvenus à un accord politique sur la définition de l'IA. Le Parlement européen a accepté d'adopter la définition utilisée par l'Organisation de coopération et de développement économiques (OCDE). La définition stipule que  "système d'intelligence artificielle (système d'IA) désigne un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d'autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions influençant ou des environnements virtuels."

La définition recoupe largement celle utilisée par l'OCDE, une organisation internationale souvent considérée comme un club de pays riches. Le Parlement européen a ajouté un préambule au texte, appelant à ce que la définition de l'IA soit étroitement alignée sur les travaux des organisations internationales travaillant sur l'intelligence artificielle afin de garantir la sécurité juridique, l'harmonisation et une large acceptation.

Les législateurs conservateurs du Parti populaire européen souhaitaient restreindre la définition aux systèmes basés sur l'apprentissage automatique, tandis que les législateurs de gauche au centre souhaitaient une approche plus large ciblant la prise de décision automatisée. Cependant, le compromis note que lorsqu'un modèle d'IA est intégré dans un système plus étendu entièrement dépendant du composant d'IA, l'ensemble du système est considéré comme faisant partie d'une seule solution d'IA.

Le compromis précise également que l'IA doit être distinguée des systèmes logiciels ou des approches de programmation plus simples, et les objectifs fixés pourraient être différents de la finalité prévue du système d'IA dans un contexte spécifique. Le libellé a été inclus indiquant que la référence aux prédictions inclut le contenu, une mesure destinée à garantir que les modèles d'IA générative comme ChatGPT ne passent pas entre les mailles du règlement. Cependant, la question suivante qui se pose est de savoir si ces modèles relèvent du risque élevé et du chapitre 2 ou peuvent compter sur une grande exemption GPAI.

L'adoption par l'UE de la définition de l'IA de l'OCDE est un pas vers l'harmonisation et la sécurité juridique, mais il reste à voir comment l'UE réglementera l'IA pour prévenir les dommages.

 

L'UE convient d'autres définitions pour le règlement sur l'IA

Le 6 mars 2023, un accord a été trouvé lors d'une réunion technique sur la plupart des autres définitions du règlement IA. Le Parlement européen a convenu de définir un "risque significatif" comme un risque qui est significatif en termes de gravité, d'intensité, de probabilité d'occurrence, de durée de ses effets et de sa capacité à affecter un individu, une pluralité de personnes ou à affecter un groupe particulier groupe de personnes.

Le Parlement européen a également défini les systèmes de vérification biométrique à distance comme des systèmes d'IA utilisés pour vérifier l'identité des personnes en comparant leurs données biométriques à une base de données de référence avec leur consentement préalable. Cela se distingue par un système d'authentification, où les personnes elles-mêmes demandent à être authentifiées. Les définitions de la catégorisation biométrique ont également été clarifiées, avec une référence ajoutée à la déduction de caractéristiques personnelles et d'attributs comme le sexe ou la santé.

Le Parlement européen a introduit une référence à la directive relative à l'application de la loi pour le profilage par les autorités chargées de l'application de la loi. L'UE veille à ce que l'IA ne nuise pas aux individus ou à la société dans son ensemble. La loi sur l'IA de l'UE est une proposition législative qui vise à réglementer l'IA en fonction de sa capacité à causer des dommages. Ces définitions joueront un rôle essentiel dans la définition de la portée du règlement de l'UE sur l'IA et sur la manière dont l'IA est réglementée dans l'UE.

#EUAIRegulation #AIAct #OECDAIdefinition #righttoexplanation #automatisationddecisionmaking #highriskAI #biometricverification #lawenforcement #AIpolicy #regulatingAI #AIethics
 
 

#buttons=(Accept !) #days=(20)

Notre site Web utilise des cookies pour améliorer votre expérience. En savoir plus
Accept !