Your cart is currently empty!
La régulation de l’intelligence artificielle (IA) a franchi une étape supplémentaire ce mercredi 13 mars 2024, avec l’adoption par le Parlement européen de l’ ”IA Act” en session plénière, à une large majorité (523 pour, 46 contre, 49 abstentions, texte en bas de cet article).
Après validation du texte, celui-ci entrera en vigueur 20 jours après sa publication au Journal officiel de l’Union européenne. Six mois après, les systèmes d’IA concernés seront interdits puis les autres mesures entreront progressivement en application.
Cette législation ambitieuse vise à établir un cadre juridique complet pour encadrer le développement et l’utilisation de l’IA en Europe et au-delà.
Depuis 2017 (1), l’Union européenne (UE) a progressivement mis en place un cadre juridique visant à encadrer le développement et l’utilisation de l’intelligence artificielle (IA), tout en garantissant le respect des droits fondamentaux et la protection des citoyens. Voici un résumé des principales étapes de cet historique :
En décembre 2023, le Parlement européen et le Conseil de l’Union européenne ont conclu un accord politique sur la loi sur l’intelligence artificielle (IA), marquant une étape importante vers la réglementation de cette technologie émergente. Voici un résumé des principaux points de cet accord :
Un système d’intelligence artificielle (IA) est un logiciel développé à l’aide de diverses techniques, notamment :
Un tel système d’IA est capable, pour un ensemble d’objectifs définis par l’homme, de produire des résultats tels que des contenus, des prédictions, des recommandations ou des décisions qui influencent les environnements avec lesquels il interagit.
La proposition de règlement sur l’IA, après analyse d’impact, fournit également des définitions spécifiques pour certains types de systèmes d’IA :
Les eurodéputés ont convenu que les systèmes d’IA à usage général, et les modèles sur lesquels ils sont basés, devront respecter des exigences de transparence, comme initialement proposé par le Parlement.
Il s’agit notamment de mettre à jour la documentation technique, de se conformer à la législation de l’UE sur les droits d’auteurs et de diffuser des résumés détaillés sur le contenu utilisé pour leur formation.
Pour les systèmes d’IA à usage général présentant un risque systémique, les négociateurs du PE ont obtenu des obligations plus strictes.
Si ces modèles répondent à certains critères, ils devront effectuer des évaluations de modèles, évaluer et atténuer les risques systémiques, effectuer des tests contradictoires, rendre compte à la Commission des incidents graves, assurer la cybersécurité et rendre compte de leur efficacité énergétique.
Les députés ont également insisté sur le fait que, jusqu’à ce que des normes européennes harmonisées soient publiées, les systèmes d’IA à usage général présentant un risque systémique peuvent s’appuyer sur des codes de pratique pour se conformer à la réglementation.
La proposition vise à atteindre plusieurs objectifs :
La proposition de règlement établit :
Tout le dispositif légal est articulé autour d’une pyramide des risques. La loi propose une approche basée sur les risques, visant à identifier et à traiter spécifiquement les risques associés aux applications d’IA.
Elle prévoit l’interdiction des pratiques à risque inacceptable et établit des obligations claires pour les systèmes d’IA à haut risque, avec des mesures de surveillance et de conformité strictes.
Les systèmes d’IA sont classés en fonction de leur niveau de risque, avec des obligations différentes pour chaque catégorie. Les systèmes identifiés comme présentant un risque élevé sont soumis à des exigences strictes avant de pouvoir être mis sur le marché, tandis que ceux à risque limité ou nul bénéficient d’une réglementation plus souple.
Les systèmes d’IA identifiés comme à haut risque comprennent la technologie de l’IA utilisée dans:
Les systèmes d’IA à haut risque seront soumis à des obligations strictes avant de pouvoir être mis sur le marché:
Tous les systèmes d’identification biométrique à distance sont considérés comme à haut risque et soumis à des exigences strictes. L’utilisation de l’identification biométrique à distance dans des espaces accessibles au public à des fins répressives est, en principe, interdite.
Des exceptions étroites sont strictement définies et réglementées, par exemple lorsque cela est nécessaire pour rechercher un enfant disparu, pour prévenir une menace terroriste spécifique et imminente ou pour détecter, localiser, identifier ou poursuivre un auteur ou un suspect d’une infraction pénale grave.
Ces utilisations sont soumises à l’autorisation d’un organe judiciaire ou autre organisme indépendant et à des limites appropriées dans le temps, la portée géographique et les bases de données recherchées.
Les applications d’IA à risque maximal (source : Europa)
Un risque limité rrenvoie aux risques associés au manque de transparence dans l’utilisation de l’IA. La loi sur l’IA introduit des obligations spécifiques en matière de transparence afin de garantir que les êtres humains sont informés lorsque cela est nécessaire, ce qui favorise la confiance.
Par exemple, lors de l’utilisation de systèmes d’IA tels que les chatbots, les humains doivent être informés qu’ils interagissent avec une machine afin qu’ils puissent prendre une décision éclairée de continuer ou de prendre du recul. Les fournisseurs devront également s’assurer que le contenu généré par l’IA est identifiable.
En outre, les textes générés par l’IA publiés dans le but d’informer le public sur des questions d’intérêt public doivent être étiquetés comme étant générés artificiellement. Cela s’applique également aux contenus audio et vidéo constituant des contrefaçons profondes.
La loi sur l’IA permet l’utilisation gratuite de l’IA à risque minimal. Cela inclut des applications telles que les jeux vidéo compatibles avec l’IA ou les filtres anti-spam. La grande majorité des systèmes d’IA actuellement utilisés dans l’UE relèvent de cette catégorie.
Une fois qu’un système d’IA est sur le marché, les autorités sont en charge de la surveillance du marché, les déployeurs assurent la surveillance et le suivi humains, et les fournisseurs ont mis en place un système de surveillance post-commercialisation.
Les fournisseurs et les déployeurs signaleront également des incidents graves et des dysfonctionnements.
La proposition de règlement sur l’intelligence artificielle assure une cohérence avec la Charte des droits fondamentaux de l’UE ainsi qu’avec le droit dérivé de l’UE dans divers domaines, notamment sur les volets suivants :
La législation garantit une cohérence avec le droit dérivé de l’UE en matière de protection des données, assurant ainsi la confidentialité et la sécurité des données utilisées par les systèmes d’IA.
Des mesures sont prises pour protéger les consommateurs contre les pratiques commerciales injustes et les produits défectueux résultant de l’utilisation de l’IA.
La proposition complète le droit existant en matière de non-discrimination en prévoyant des exigences visant à réduire au minimum le risque de discrimination algorithmique. Cela comprend des obligations concernant les essais, la gestion des risques, la documentation et le contrôle humain tout au long du cycle de vie des systèmes d’IA.
Des dispositions sont intégrées pour garantir l’égalité entre les femmes et les hommes dans l’utilisation et le déploiement des systèmes d’IA, évitant ainsi toute discrimination de genre.
La proposition de règlement sur l’intelligence artificielle établit une interdiction stricte de certaines pratiques pour garantir le respect des droits fondamentaux et protéger les individus contre toute forme de préjudice physique ou psychologique. Voici les pratiques interdites en matière d’intelligence artificielle selon ce règlement :
Les systèmes d’IA utilisant des techniques subliminales pour altérer le comportement d’une personne de manière à causer un préjudice physique ou psychologique sont formellement interdits. Cela inclut toute manipulation visant à contourner le libre arbitre d’une personne.
Il est interdit aux systèmes d’IA d’exploiter les éventuelles vulnérabilités dues à l’âge ou au handicap d’un individu pour altérer son comportement de manière à causer un préjudice physique ou psychologique.
Les systèmes d’IA visant à évaluer ou à établir un classement de la fiabilité des personnes en fonction de leur comportement social ou de caractéristiques personnelles sont interdits s’ils peuvent entraîner un traitement préjudiciable, injustifié ou disproportionné dans certains contextes.
La reconnaissance des émotions dans les environnements de travail et les établissements d’enseignement est interdite afin de protéger la vie privée et la dignité des individus.
L’utilisation des systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives est limitée, sauf dans des cas spécifiques tels que la recherche de victimes potentielles de crimes graves ou la prévention d’attaques terroristes.
Les conditions d’utilisation de ces systèmes doivent être strictement réglementées, tenant compte de la situation, de la gravité du préjudice et des droits et libertés des personnes concernées. Les autorités compétentes doivent donner leur autorisation préalable pour l’utilisation de tels systèmes.
Tous les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits, de la notation sociale par les gouvernements aux jouets utilisant l’assistance vocale qui encouragent les comportements dangereux.
Les europdéputés ont adopté une série de garanties et d’exceptions limitées pour l’utilisation des systèmes d’identification biométrique dans les espaces accessibles au public à des fins répressives, sous réserve d’une autorisation judiciaire préalable et pour des listes d’infractions strictement définies. Les systèmes d’identification biométrique “à distance” seront utilisés strictement dans le cadre de la recherche ciblée d’une personne condamnée ou soupçonnée d’avoir commis un crime grave.
Les systèmes d’identification biométrique “en temps réel” répondront à des conditions strictes et leur utilisation sera limitée dans le temps et dans l’espace :
– recherche ciblée de victimes (enlèvement, traite, exploitation sexuelle),
– la prévention d’une menace terroriste précise et actuelle, ou
– la localisation ou l’identification d’une personne soupçonnée d’avoir commis l’un des crimes spécifiques mentionnés dans le règlement (terrorisme, traite, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle, crime contre l’environnement)
Le non-respect des règles peut entraîner des amendes allant de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise.
La loi introduit des obligations spécifiques en matière de transparence pour garantir que les utilisateurs sont informés de l’utilisation de l’IA. Cela inclut l’identification des systèmes d’IA et la désignation des contenus générés par l’IA, ainsi que des mesures pour assurer la traçabilité des résultats.
Une fois sur le marché, les systèmes d’IA sont soumis à une surveillance continue par les autorités et les déployeurs, avec des mécanismes de signalement des incidents graves et des dysfonctionnements. Les fournisseurs sont également tenus de mettre en place un système de surveillance post-commercialisation.
Étant donné la nature évolutive de la technologie IA, la législation est conçue pour s’adapter aux changements technologiques.
Les fournisseurs sont responsables de maintenir la qualité et la sécurité de leurs systèmes même après leur mise sur le marché.
L’Office européen de l’IA a été établi au sein de la Commission européenne pour servir de centre d’expertise en matière d’IA et constitue un pilier essentiel du système européen de gouvernance de l’IA.
L’UE s’efforce de garantir la sécurité et la fiabilité de l’IA. La loi sur l’IA représente le premier cadre juridique complet au monde, visant à protéger la santé, la sécurité et les droits fondamentaux des individus tout en offrant une sécurité juridique aux entreprises des 27 États membres.
L’Office de l’IA joue un rôle central dans la mise en œuvre de la loi sur l’IA en soutenant les organes de gouvernance des États membres. Il est chargé d’appliquer les règles concernant les modèles d’IA à usage général, y compris l’évaluation, la demande d’informations aux fournisseurs et l’application de sanctions.
En collaboration avec les acteurs publics et privés et la communauté des start-ups, l’Office de l’IA promeut une IA digne de confiance dans tout le marché intérieur européen. Il encourage les écosystèmes innovants d’IA pour renforcer la compétitivité et la croissance économique de l’UE.
L’Office de l’IA promeut l’approche de l’UE en matière d’IA digne de confiance au niveau international. Il collabore avec des institutions similaires dans le monde entier et encourage la coopération et la gouvernance internationales en matière d’IA.
L’Office de l’IA surveille en permanence l’écosystème de l’IA, l’évolution technologique et l’évolution du marché pour détecter les risques systémiques et autres tendances pertinentes.
L’Office de l’IA travaille en étroite collaboration avec le comité européen de l’intelligence artificielle et le Centre européen pour la transparence algorithmique de la Commission.
Il collabore avec la communauté scientifique, l’industrie, les start-ups, le monde universitaire, les groupes de réflexion et la société civile pour partager les meilleures pratiques et élaborer des codes de conduite et des codes de pratiques en matière d’IA.
L’Office de l’IA supervisera le pacte sur l’IA, permettant aux entreprises de dialoguer avec la Commission et d’autres parties prenantes pour planifier et se préparer à la mise en œuvre de la loi sur l’IA.
En conclusion, l’Office européen de l’IA joue un rôle essentiel dans la promotion et la réglementation d’une IA digne de confiance en Europe et dans le monde entier.
(1) Historique des avancées du cadre juridique de l’IA