Le Cadre juridique de l’intelligence artificielle

·

·

Le Cadre juridique de l’intelligence artificielle

La régulation de l’intelligence artificielle (IA) a franchi une étape supplémentaire ce mercredi 13 mars 2024, avec l’adoption par le Parlement européen de l’ ”IA Act” en session plénière, à une large majorité (523 pour, 46 contre, 49 abstentions, texte en bas de cet article).

Après validation du texte, celui-ci entrera en vigueur 20 jours après sa publication au Journal officiel de l’Union européenne. Six mois après, les systèmes d’IA concernés seront interdits puis les autres mesures entreront progressivement en application.

Cette législation ambitieuse vise à établir un cadre juridique complet pour encadrer le développement et l’utilisation de l’IA en Europe et au-delà.

Sommaire

Historique du cadre juridique de l’intelligence artificielle en Europe

Depuis 2017 (1), l’Union européenne (UE) a progressivement mis en place un cadre juridique visant à encadrer le développement et l’utilisation de l’intelligence artificielle (IA), tout en garantissant le respect des droits fondamentaux et la protection des citoyens. Voici un résumé des principales étapes de cet historique :

2017

  • Le Conseil européen souligne l’importance de prendre des mesures rapides face aux tendances émergentes, notamment dans le domaine de l’IA.

2018

  • La Commission européenne présente un premier plan coordonné sur l’IA, dans le cadre d’un engagement commun pour renforcer la compétitivité européenne à l’échelle mondiale. Ce plan inclut notamment des stratégies nationales des États membres.

2019

  • Le Conseil de l’UE insiste sur la nécessité de garantir le respect total des droits des citoyens européens et demande un réexamen de la législation en vigueur dans le domaine de l’IA.

Résolutions du Parlement européen (2019-2020)

  • Le Parlement européen adopte plusieurs résolutions abordant divers aspects de l’IA, notamment les aspects éthiques, la responsabilité civile, les droits de propriété intellectuelle, le droit pénal et son utilisation par les autorités policières et judiciaires, ainsi que l’éducation, la culture et l’audiovisuel.

Février 2020

  • La Commission publie un Livre blanc sur l’IA, réaffirmant l’objectif européen de promouvoir l’adoption de l’IA tout en tenant compte des risques associés à son utilisation.

Octobre 2020

  • Le Conseil européen demande à la Commission de fournir une définition claire et objective des systèmes d’IA à haut risque.
  • Le Conseil de l’UE souligne les opportunités et les risques liés aux technologies numériques, y compris l’IA, pour les droits fondamentaux, la démocratie et l’État de droit.

Avril 2021

  • La Commission présente des mesures sur l’IA, comprenant une communication sur la promotion d’une approche européenne, un réexamen du plan coordonné sur l’IA, une proposition de cadre réglementaire sur l’IA et une analyse d’impact.

En décembre 2023, le Parlement européen et le Conseil de l’Union européenne ont conclu un accord politique sur la loi sur l’intelligence artificielle (IA), marquant une étape importante vers la réglementation de cette technologie émergente. Voici un résumé des principaux points de cet accord :

Adoption et entrée en vigueur de la loi sur l’IA

  • Le texte de la loi est en cours de finalisation et de traduction formelles.
  • La loi sur l’IA entrera en vigueur 20 jours après sa publication au Journal officiel de l’Union européenne.
  • Elle sera pleinement applicable deux ans plus tard, avec quelques exceptions :
    • Les interdictions seront effectives après six mois.
    • Les règles de gouvernance et les obligations concernant les modèles d’IA à usage général seront applicables après 12 mois.
    • Les règles applicables aux systèmes d’IA intégrés dans des produits réglementés entreront en vigueur après 36 mois.

Pacte sur l’IA pour faciliter la transition

  • La Commission européenne a lancé le pacte sur l’IA, une initiative volontaire visant à soutenir la mise en œuvre future de la loi sur l’IA.
  • Le pacte invite les développeurs d’IA en Europe et dans le monde entier à se conformer à l’avance aux principales obligations de la future loi sur l’IA.

Définition de l’intelligence artificielle (IA)

Un système d’intelligence artificielle (IA) est un logiciel développé à l’aide de diverses techniques, notamment :

  • Approches d’apprentissage automatique : cela comprend l’apprentissage supervisé, l’apprentissage non supervisé et l’apprentissage par renforcement, utilisant une gamme étendue de méthodes telles que l’apprentissage profond.
  • Approches fondées sur la logique et les connaissances : cela englobe la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence et de déduction, le raisonnement symbolique et les systèmes experts.
  • Approches statistiques : cela inclut l’estimation bayésienne, les méthodes de recherche et d’optimisation.

Un tel système d’IA est capable, pour un ensemble d’objectifs définis par l’homme, de produire des résultats tels que des contenus, des prédictions, des recommandations ou des décisions qui influencent les environnements avec lesquels il interagit.

La proposition de règlement sur l’IA, après analyse d’impact, fournit également des définitions spécifiques pour certains types de systèmes d’IA :

  • Système d’identification biométrique à distance : Il s’agit d’un système d’IA conçu pour identifier des personnes physiques à distance en comparant leurs données biométriques avec celles d’une base de données de référence, sans que l’utilisateur ne sache préalablement si la personne sera présente et identifiable.
  • Système d’identification biométrique à distance en temps réel : C’est un système d’identification biométrique à distance où l’acquisition des données biométriques, la comparaison et l’identification se produisent instantanément ou avec un délai minime pour éviter toute contournement des règles. Cela inclut également l’identification quasi-instantanée avec un léger décalage.

Les garde-fous de l’IA


Les eurodéputés ont convenu que les systèmes d’IA à usage général, et les modèles sur lesquels ils sont basés, devront respecter des exigences de transparence, comme initialement proposé par le Parlement.

Il s’agit notamment de mettre à jour la documentation technique, de se conformer à la législation de l’UE sur les droits d’auteurs et de diffuser des résumés détaillés sur le contenu utilisé pour leur formation.

Pour les systèmes d’IA à usage général présentant un risque systémique, les négociateurs du PE ont obtenu des obligations plus strictes.

Si ces modèles répondent à certains critères, ils devront effectuer des évaluations de modèles, évaluer et atténuer les risques systémiques, effectuer des tests contradictoires, rendre compte à la Commission des incidents graves, assurer la cybersécurité et rendre compte de leur efficacité énergétique.

Les députés ont également insisté sur le fait que, jusqu’à ce que des normes européennes harmonisées soient publiées, les systèmes d’IA à usage général présentant un risque systémique peuvent s’appuyer sur des codes de pratique pour se conformer à la réglementation.

Objectifs du règlement sur l’IA

La proposition vise à atteindre plusieurs objectifs :

  1. Garantir la sécurité et le respect des droits fondamentaux : Les systèmes d’IA mis sur le marché doivent être sûrs et respecter la législation en vigueur en matière de droits fondamentaux, les valeurs de l’UE, l’État de droit et la durabilité environnementale.
  2. Assurer la sécurité juridique : La législation vise à fournir une sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA.
  3. Renforcer la gouvernance et l’application de la législation existante : La proposition vise à renforcer la gouvernance et l’application effective de la législation existante en matière d’exigences de sécurité applicables aux systèmes d’IA et de droits fondamentaux.
  4. Faciliter le développement d’un marché unique : La loi cherche à faciliter le développement d’un marché unique pour des applications d’IA légales et sûres, et à empêcher la fragmentation du marché.

Contenu de la proposition de règlement

La proposition de règlement établit :

  • Des interdictions de certaines pratiques d’IA
  • Des exigences spécifiques pour les systèmes d’IA à haut risque.
  • Des Règles harmonisées en matière de transparence pour les systèmes d’IA destinés à interagir avec des personnes, les systèmes de reconnaissance des émotions et de catégorisation biométrique, ainsi que pour les systèmes d’IA générative utilisés pour générer ou manipuler des images ou des contenus audio ou vidéo.

L’évaluation des risques en matière d’IA

Tout le dispositif légal est articulé autour d’une pyramide des risques. La loi propose une approche basée sur les risques, visant à identifier et à traiter spécifiquement les risques associés aux applications d’IA.

Elle prévoit l’interdiction des pratiques à risque inacceptable et établit des obligations claires pour les systèmes d’IA à haut risque, avec des mesures de surveillance et de conformité strictes.

Les systèmes d’IA sont classés en fonction de leur niveau de risque, avec des obligations différentes pour chaque catégorie. Les systèmes identifiés comme présentant un risque élevé sont soumis à des exigences strictes avant de pouvoir être mis sur le marché, tandis que ceux à risque limité ou nul bénéficient d’une réglementation plus souple.

Systèmes d’IA à Risque élevé

Les systèmes d’IA identifiés comme à haut risque comprennent la technologie de l’IA utilisée dans:

  • les infrastructures critiques (par exemple les transports), susceptibles de mettre en danger la vie et la santé des citoyens;
  • la formation éducative ou professionnelle, qui peut déterminer l’accès à l’éducation et au cours professionnel de la vie d’une personne (par exemple, la notation des examens);
  • composants de sécurité des produits (par exemple, application d’IA en chirurgie assistée par robot);
  • l’emploi, la gestion des travailleurs et l’accès au travail indépendant (par exemple, un logiciel de tri de CV pour les procédures de recrutement);
  • services publics et privés essentiels (par exemple, notation de crédit refusant aux citoyens la possibilité d’obtenir un prêt);
  • les services répressifs susceptibles d’interférer avec les droits fondamentaux des personnes (par exemple, évaluation de la fiabilité des preuves);
  • gestion de la migration, de l’asile et du contrôle aux frontières (par exemple, examen automatisé des demandes de visa);
  • administration de la justice et processus démocratiques (par exemple, solutions d’IA pour rechercher des décisions de justice).

Les systèmes d’IA à haut risque seront soumis à des obligations strictes avant de pouvoir être mis sur le marché:

  • des systèmes adéquats d’évaluation et d’atténuation des risques;
  • haute qualité des ensembles de données alimentant le système afin de minimiser les risques et les résultats discriminatoires;
  • l’enregistrement des activités afin d’assurer la traçabilité des résultats;
  • une documentation détaillée fournissant toutes les informations nécessaires sur le système et son objet pour permettre aux autorités d’évaluer sa conformité;
  • des informations claires et adéquates à l’intention du déployeur;
  • des mesures de surveillance humaines appropriées pour minimiser les risques;
  • haut niveau de robustesse, de sécurité et de précision.

Tous les systèmes d’identification biométrique à distance sont considérés comme à haut risque et soumis à des exigences strictes. L’utilisation de l’identification biométrique à distance dans des espaces accessibles au public à des fins répressives est, en principe, interdite.

Des exceptions étroites sont strictement définies et réglementées, par exemple lorsque cela est nécessaire pour rechercher un enfant disparu, pour prévenir une menace terroriste spécifique et imminente ou pour détecter, localiser, identifier ou poursuivre un auteur ou un suspect d’une infraction pénale grave.

Ces utilisations sont soumises à l’autorisation d’un organe judiciaire ou autre organisme indépendant et à des limites appropriées dans le temps, la portée géographique et les bases de données recherchées.

Les applications d’IA à risque maximal (source : Europa)

processus étape par étape pour la déclaration de conformité
How does it all work in practice for providers of high risk AI systems?

Systèmes d’IA à Risque limité

Un risque limité rrenvoie aux risques associés au manque de transparence dans l’utilisation de l’IA. La loi sur l’IA introduit des obligations spécifiques en matière de transparence afin de garantir que les êtres humains sont informés lorsque cela est nécessaire, ce qui favorise la confiance.

Par exemple, lors de l’utilisation de systèmes d’IA tels que les chatbots, les humains doivent être informés qu’ils interagissent avec une machine afin qu’ils puissent prendre une décision éclairée de continuer ou de prendre du recul. Les fournisseurs devront également s’assurer que le contenu généré par l’IA est identifiable.

En outre, les textes générés par l’IA publiés dans le but d’informer le public sur des questions d’intérêt public doivent être étiquetés comme étant générés artificiellement. Cela s’applique également aux contenus audio et vidéo constituant des contrefaçons profondes.

Systèmes d’IA à Risque minimal ou nul

La loi sur l’IA permet l’utilisation gratuite de l’IA à risque minimal. Cela inclut des applications telles que les jeux vidéo compatibles avec l’IA ou les filtres anti-spam. La grande majorité des systèmes d’IA actuellement utilisés dans l’UE relèvent de cette catégorie.

Une fois qu’un système d’IA est sur le marché, les autorités sont en charge de la surveillance du marché, les déployeurs assurent la surveillance et le suivi humains, et les fournisseurs ont mis en place un système de surveillance post-commercialisation.

Les fournisseurs et les déployeurs signaleront également des incidents graves et des dysfonctionnements.

Cohérence avec les droits fondamentaux de l’UE

La proposition de règlement sur l’intelligence artificielle assure une cohérence avec la Charte des droits fondamentaux de l’UE ainsi qu’avec le droit dérivé de l’UE dans divers domaines, notamment sur les volets suivants :

Protection des données

La législation garantit une cohérence avec le droit dérivé de l’UE en matière de protection des données, assurant ainsi la confidentialité et la sécurité des données utilisées par les systèmes d’IA.

Protection des consommateurs

Des mesures sont prises pour protéger les consommateurs contre les pratiques commerciales injustes et les produits défectueux résultant de l’utilisation de l’IA.

Non-discrimination

La proposition complète le droit existant en matière de non-discrimination en prévoyant des exigences visant à réduire au minimum le risque de discrimination algorithmique. Cela comprend des obligations concernant les essais, la gestion des risques, la documentation et le contrôle humain tout au long du cycle de vie des systèmes d’IA.

Égalité entre les femmes et les hommes

Des dispositions sont intégrées pour garantir l’égalité entre les femmes et les hommes dans l’utilisation et le déploiement des systèmes d’IA, évitant ainsi toute discrimination de genre.

Les Pratiques interdites en matière d’intelligence artificielle

La proposition de règlement sur l’intelligence artificielle établit une interdiction stricte de certaines pratiques pour garantir le respect des droits fondamentaux et protéger les individus contre toute forme de préjudice physique ou psychologique. Voici les pratiques interdites en matière d’intelligence artificielle selon ce règlement :

Manipulation du comportement humain

Les systèmes d’IA utilisant des techniques subliminales pour altérer le comportement d’une personne de manière à causer un préjudice physique ou psychologique sont formellement interdits. Cela inclut toute manipulation visant à contourner le libre arbitre d’une personne.

Exploitation des vulnérabilités liées à l’âge ou au handicap

Il est interdit aux systèmes d’IA d’exploiter les éventuelles vulnérabilités dues à l’âge ou au handicap d’un individu pour altérer son comportement de manière à causer un préjudice physique ou psychologique.

Évaluation ou classement de la fiabilité des personnes

Les systèmes d’IA visant à évaluer ou à établir un classement de la fiabilité des personnes en fonction de leur comportement social ou de caractéristiques personnelles sont interdits s’ils peuvent entraîner un traitement préjudiciable, injustifié ou disproportionné dans certains contextes.

Reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement

La reconnaissance des émotions dans les environnements de travail et les établissements d’enseignement est interdite afin de protéger la vie privée et la dignité des individus.

Utilisation des systèmes d’identification biométrique à distance en temps réel

L’utilisation des systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives est limitée, sauf dans des cas spécifiques tels que la recherche de victimes potentielles de crimes graves ou la prévention d’attaques terroristes.

Les conditions d’utilisation de ces systèmes doivent être strictement réglementées, tenant compte de la situation, de la gravité du préjudice et des droits et libertés des personnes concernées. Les autorités compétentes doivent donner leur autorisation préalable pour l’utilisation de tels systèmes.

Tous les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits, de la notation sociale par les gouvernements aux jouets utilisant l’assistance vocale qui encouragent les comportements dangereux.

Les europdéputés ont adopté une série de garanties et d’exceptions limitées pour l’utilisation des systèmes d’identification biométrique dans les espaces accessibles au public à des fins répressives, sous réserve d’une autorisation judiciaire préalable et pour des listes d’infractions strictement définies. Les systèmes d’identification biométrique “à distance” seront utilisés strictement dans le cadre de la recherche ciblée d’une personne condamnée ou soupçonnée d’avoir commis un crime grave.

Les systèmes d’identification biométrique “en temps réel” répondront à des conditions strictes et leur utilisation sera limitée dans le temps et dans l’espace :

– recherche ciblée de victimes (enlèvement, traite, exploitation sexuelle),

– la prévention d’une menace terroriste précise et actuelle, ou

– la localisation ou l’identification d’une personne soupçonnée d’avoir commis l’un des crimes spécifiques mentionnés dans le règlement (terrorisme, traite, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle, crime contre l’environnement)

Sanctions et conséquences du non-respect des règles

Le non-respect des règles peut entraîner des amendes allant de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise.

Transparence et Responsabilité

La loi introduit des obligations spécifiques en matière de transparence pour garantir que les utilisateurs sont informés de l’utilisation de l’IA. Cela inclut l’identification des systèmes d’IA et la désignation des contenus générés par l’IA, ainsi que des mesures pour assurer la traçabilité des résultats.

Supervision et Surveillance

Une fois sur le marché, les systèmes d’IA sont soumis à une surveillance continue par les autorités et les déployeurs, avec des mécanismes de signalement des incidents graves et des dysfonctionnements. Les fournisseurs sont également tenus de mettre en place un système de surveillance post-commercialisation.

Adaptabilité de la Législation

Étant donné la nature évolutive de la technologie IA, la législation est conçue pour s’adapter aux changements technologiques.

Les fournisseurs sont responsables de maintenir la qualité et la sécurité de leurs systèmes même après leur mise sur le marché.

Le rôle central de l’Office européen de l’IA

L’Office européen de l’IA a été établi au sein de la Commission européenne pour servir de centre d’expertise en matière d’IA et constitue un pilier essentiel du système européen de gouvernance de l’IA.

Objectif de l’UE

L’UE s’efforce de garantir la sécurité et la fiabilité de l’IA. La loi sur l’IA représente le premier cadre juridique complet au monde, visant à protéger la santé, la sécurité et les droits fondamentaux des individus tout en offrant une sécurité juridique aux entreprises des 27 États membres.

Mise en œuvre de la loi sur l’IA

L’Office de l’IA joue un rôle central dans la mise en œuvre de la loi sur l’IA en soutenant les organes de gouvernance des États membres. Il est chargé d’appliquer les règles concernant les modèles d’IA à usage général, y compris l’évaluation, la demande d’informations aux fournisseurs et l’application de sanctions.

Promotion de l’IA digne de confiance

En collaboration avec les acteurs publics et privés et la communauté des start-ups, l’Office de l’IA promeut une IA digne de confiance dans tout le marché intérieur européen. Il encourage les écosystèmes innovants d’IA pour renforcer la compétitivité et la croissance économique de l’UE.

Coopération internationale

L’Office de l’IA promeut l’approche de l’UE en matière d’IA digne de confiance au niveau international. Il collabore avec des institutions similaires dans le monde entier et encourage la coopération et la gouvernance internationales en matière d’IA.

Surveillance continue

L’Office de l’IA surveille en permanence l’écosystème de l’IA, l’évolution technologique et l’évolution du marché pour détecter les risques systémiques et autres tendances pertinentes.

Collaboration avec les parties prenantes

L’Office de l’IA travaille en étroite collaboration avec le comité européen de l’intelligence artificielle et le Centre européen pour la transparence algorithmique de la Commission.

Collaboration avec la communauté d’experts

Il collabore avec la communauté scientifique, l’industrie, les start-ups, le monde universitaire, les groupes de réflexion et la société civile pour partager les meilleures pratiques et élaborer des codes de conduite et des codes de pratiques en matière d’IA.

Pacte sur l’IA

L’Office de l’IA supervisera le pacte sur l’IA, permettant aux entreprises de dialoguer avec la Commission et d’autres parties prenantes pour planifier et se préparer à la mise en œuvre de la loi sur l’IA.

En conclusion, l’Office européen de l’IA joue un rôle essentiel dans la promotion et la réglementation d’une IA digne de confiance en Europe et dans le monde entier.

(1) Historique des avancées du cadre juridique de l’IA

  1. Office européen de l’IA
  2. Janvier 2024Paquet d’innovation en matière d’IA pour soutenir les startups et les PME en intelligence artificielle
  3. Décembre 2023Accord politique sur la loi sur l’IA conclu par les colégislateurs
  4. Juin 2023Position de négociation du Parlement européen sur la loi sur l’IA
  5. Décembre 2022Orientation générale du Conseil sur la loi sur l’IA
  6. Septembre 2022Proposition de directive sur la responsabilité en matière d’IA
  7. Juin 2022Lancement du premier bac à sable réglementaire de l’IA en Espagne: Faire avancer le règlement sur l’IA
  8. Décembre 2021Comité des régions, avis sur la loi sur l’IABanque centrale européenne, Avis sur la loi sur l’IA (.PDF)
  9. Novembre 2021Conseil de l’UE: Texte de compromis de la présidence sur la loi sur l’IA (.PDF)Conférence dehaut niveau sur l’IA: De l’ambition à l’action (3e Assemblée de l’Alliance européenne de l’IA)Comité économique et social européen, avis sur l’acte sur l’IA
  10. Juin 2021Consultation publique sur la responsabilité civile — adaptation des règles de responsabilité à l’ère numérique et à l’intelligence artificielleCommissioneuropéenne: Proposition de règlement sur la sécurité des produits
  11. Avril 2021Commissioneuropéenne: Communication intitulée «Favoriser une approche européenne de l’IA»Commission européenne: Proposition de règlement établissant des règles harmonisées en matière d’IACommissioneuropéenne: mise à jour du plan coordonné en matière d’IACommissioneuropéenne: Analyse d’impact d’un règlement sur l’IA
  12. Octobre 20202ème Assemblée européenne de l’Alliance AI
  13. Juillet 2020Analyse d’impact initiale: Exigences éthiques et légales en matière d’IAGroupe d’experts dehaut niveau sur l’IA: Liste finale d’évaluation de l’IA digne de confiance (ALTAI)Groupe d’experts dehaut niveau sur l’IA: Recommandations sectorielles d’une IA digne de confiance
  14. Février 2020Commissioneuropéenne: Livre blanc sur l’IA: une approche européenne de l’excellence et de la confianceConsultation publique sur une approche européenne de l’excellence et de la confiance dans l’IA
  15. Décembre 2019Groupe d’experts dehaut niveau sur l’IA: Pilotage d’une liste d’évaluation d’une IA digne de confiance
  16. Juin 2019Première Assemblée européenne de l’Alliance AIGroupe d’experts dehaut niveau sur l’IA: Recommandations politiques et d’investissement de l’IA
  17. Avril 2019Communicationde la Commission européenne: Bâtir la confiance dans l’intelligence artificielle centrée sur l’humainGroupe d’experts dehaut niveau sur l’IA: Lignes directrices en matière d’éthique pour une IA digne de confiance
  18. Décembre 2018Commissioneuropéenne: Plan coordonné en matière d’IACommissioneuropéenne (communiqué de presse): L’IA fabriquée en EuropeCommunicationde la Commission européenne: L’IA fabriquée en EuropeConsultation des parties prenantes sur le projet de lignes directrices en matière d’éthique pour une IA digne de confiance
  19. Juin 2018Lancement de l’alliance européenne pour l’IACréation du groupe d’experts de haut niveau sur l’IA
  20. Avril 2018Communiqué de presse: L’intelligence artificielle pour l’EuropeCommunication: L’intelligence artificielle pour l’EuropeDocument de travail des services de la Commission: Responsabilité à l’égard des technologies numériques émergentesDéclaration de coopération en matière d’intelligence artificielle
  21. Mars 2018Communiqué de presse: Groupe d’experts sur l’IA et alliance européenne en matière d’IA

Chat Icon