L'IA Act propose d'établir un cadre juridique cohérent pour la commercialisation et l'utilisation de l'intelligence artificielle. Son objectif principal est de prévenir les éventuels abus liés à l'IA, tout en préservant un espace propice à l'innovation. Selon l'eurodéputée allemande Svenja Hahn, citée par Reuters, "Nous avons réussi à trouver un compromis qui réglemente l'IA de manière proportionnée, protège les droits civils et stimule l'innovation et l'économie." L'adoption d'une telle réglementation constituerait une première mondiale à cette échelle, marquant ainsi une étape significative dans le domaine de la régulation de l'IA.
L'Europe propose un texte qui intègre les réglementations déjà en vigueur en matière de sécurité des produits, tout en prévoyant des mesures de contrôle pour les applications d'intelligence artificielle considérées comme "à risque". Ces applications "à risque" couvrent divers domaines tels que les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre et la gestion des migrations.
Selon le texte, les entreprises qui développent ces IA "à risque" doivent respecter plusieurs exigences, notamment garantir le maintien d'un contrôle humain, établir une documentation technique et mettre en place un système de gestion des risques. Chaque pays membre de l'Union européenne sera responsable de la mise en place de son propre organe de contrôle. Aucune autre obligation ne sera imposée aux applications qui ne sont pas considérées comme "à risque".
Lors du vote, les eurodéputés ont approuvé l'interdiction de l'utilisation de la reconnaissance faciale dans les espaces publics ainsi que des outils de police prédictive. Ces deux exemples illustrent les applications de l'IA que l'Europe souhaite clairement empêcher de se développer sur son territoire. En outre, le texte d'avril 2021 ciblait également les systèmes établissant des notes sociales, l'identification biométrique, la manipulation subliminale et les ciblages des personnes vulnérables. Ces utilisations de l'IA étaient toutes visées par les mesures restrictives proposées.
Concernant les IA génératives qui ont transformé le paysage numérique et ont connu une large démocratisation ces derniers mois, de nouvelles mesures de transparence seront imposées. Des outils tels que ChatGPT, Midjourney ou DALL-E devront très probablement divulguer les contenus protégés par des droits d'auteur qui ont été utilisés pour former leurs modèles de langage.
De plus, ces IA devraient être soumises à des tests effectués par des experts indépendants à l'avenir, afin de contrôler les risques potentiels liés à la sécurité, à la santé, aux droits fondamentaux, à la démocratie et à l'environnement. Ces risques difficiles à éviter ainsi que les éventuels abus doivent être clairement spécifiés dans une documentation distincte. En outre, le respect du règlement général sur la protection des données (RGPD) sera crucial dans tous les cas.
Après deux ans de négociations, l'ébauche du projet de régulation des usages de l'IA a été adoptée par les députés européens, marquant ainsi une étape importante vers l'adoption d'un texte complet. La prochaine étape du processus législatif consiste à confirmer, lors d'une séance plénière de la commission en juin, le résultat de cet accord préliminaire.
Par la suite, une nouvelle période de négociations avec les États membres suivra, conduisant à la rédaction et au vote du texte final. Margrethe Vestager, vice-présidente de la commission, a exprimé sa détermination à ne pas perdre de temps et espère entamer les premières négociations politiques avant l'été, dans le but de les conclure cette année.
Vous êtes professionnel et vous recherchez une agence de communication pour votre projet ? Prenez rendez-vous avec notre équipe afin d’échanger à propos de votre projet et découvrir notre méthode de travail sur mesure.