Reconnaissance faciale par drones pour les JO de 2024
Reconnaissance faciale par drones pour les JO de 2024
Ce point juridique est utile ?

Le Décret n° 2023-939 du 11 octobre 2023 a fixé les modalités de pilotage et d’évaluation de l’expérimentation de traitements algorithmiques d’images légalement collectées au moyen de systèmes de vidéoprotection et de caméras installées sur des aéronefs.

Le décret est pris pour l’application de l’article 10 de la loi n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions.

Il précise les modalités de pilotage et d’évaluation de l’expérimentation de traitements algorithmiques sur les images collectées au moyen de systèmes de vidéoprotection et de caméras installées sur des aéronefs, prévue par cet article, le contenu du rapport d’évaluation, les indicateurs utilisés, les conditions dans lesquelles le rapport émet des recommandations ainsi que les modalités selon lesquelles le public et les agents concernés sont informés de cette expérimentation et sont associés à son évaluation. 

Le contexte du décret

Pour rappel, la loi n° 2023-380 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions instaure, dans son article 10, un cadre expérimental permettant la mise en œuvre de traitements algorithmiques d’analyse automatisée des images provenant des dispositifs de vidéoprotection et de caméras installées sur des aéronefs afin de détecter et de signaler en temps réel des évènements prédéterminés.


Ces traitements ne peuvent être mis en œuvre :


– qu’à la seule fin d’assurer la sécurité des manifestations sportives, récréatives ou culturelles, qui, par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ;


– que par les services de la police et de la gendarmerie nationales, les services d’incendie et de secours, les services de police municipale et les services internes de sécurité de la SNCF et de la RATP dans le cadre de leurs missions respectives, qui assumeront la qualité de responsables de traitement.


La CNIL s’est prononcée le 8 décembre 2022 sur ce projet de loi. Elle a notamment relevé que le recours à ces dispositifs soulève des enjeux nouveaux et substantiels en matière de vie privée en ce qu’ils peuvent conduire à une collecte massive de données personnelles et permettre une surveillance automatisée en temps réel.

Elle a souligné que le déploiement, même expérimental, de ces dispositifs constitue un tournant qui va contribuer à définir le rôle général qui sera attribué à ces technologies, et plus généralement à l’intelligence artificielle. La CNIL a néanmoins considéré que les garanties prévues permettent de limiter les risques d’atteinte aux données et à la vie privée des personnes et vont dans le sens des préconisations formulées dans sa prise de position sur les caméras « augmentées » publiée en juillet 2022.


Elle a également invité le ministère à mener, dès le début de l’expérimentation, une réflexion sur la mise en place d’un protocole d’évaluation permettant de mesurer de façon rigoureuse, contradictoire et pluridisciplinaire l’apport des technologies d’analyse automatisée des images.

La pérennisation du dispositif


Comme l’a rappelé la CNIL dans son avis, cette expérimentation ne saurait en aucun cas préjuger d’une éventuelle pérennisation de ces dispositifs. Toutefois, la CNIL a accueilli très favorablement la reprise, au sein de l’article 4 du projet de décret, des trois objectifs de l’évaluation tels que développés dans son avis sur le projet de loi relatif aux jeux Olympiques et Paralympiques 2024. Ces objectifs sont les suivants :


– l’évaluation des résultats obtenus au regard des performances techniques : il s’agit de fournir une appréciation scientifiquement étayée des outils développés après les phases d’apprentissage, de validation et de correction des paramètres des algorithmes (taux d’erreurs, analyse et interprétation de ces erreurs, retours sur le gain en performance obtenu lors des différentes phases, mesures des biais discriminatoires, comparaison avec l’état de l’art, etc.) ;


– l’évaluation des résultats obtenus au regard des besoins ou objectifs opérationnels : il s’agit de mesurer, une fois ceux-ci déployés, l’apport véritable pour la ou les tâches à réaliser des outils développés et questionner l’impact des erreurs du dispositif pour l’atteinte de l’objectif. Une typologie des signalements remontés pourra notamment être réalisée, associée aux suites qui y auront été apportées ;


– l’évaluation des résultats obtenus au regard des impacts sociétaux : il s’agit d’apprécier la perception des outils développés par les personnes concernées, une fois les dispositifs déployés, de questionner l’impact du dispositif pour les personnes concernées et d’évaluer les effets sur l’exercice des droits et libertés fondamentaux des citoyens, notamment la liberté d’aller et venir et la liberté de réunion.


Le protocole d’évaluation et du choix des indicateurs

La CNIL recommande que ces trois objectifs servent de socle pour l’évaluation et qu’ils soient détaillés ou complétés par le comité d’évaluation lors de l’établissement du protocole d’évaluation et du choix des indicateurs, afin d’évaluer l’impact de l’utilisation des traitements algorithmiques de façon exhaustive.

Afin de garantir des résultats probants et étayés sur l’expérimentation, la CNIL a recommandé que le comité d’évaluation réalise et intègre à son rapport :


– une description du protocole d’évaluation, incluant notamment les étapes de l’évaluation, son organisation concrète, dans le temps et l’espace, les indicateurs et critères de succès et d’échecs, afin de permettre un examen contradictoire fidèle à la méthodologie scientifique ;


– une évaluation de la significativité des résultats, prenant notamment en compte la qualité des annotations lorsqu’elles sont utilisées pour mesurer l’efficacité technique des solutions ;


– une appréciation des garanties relatives à la protection de la vie privée telles que la pseudonymisation ou le floutage des images et, dans le cas où le choix serait fait de ne pas appliquer de telles mesures, une appréciation de l’analyse démontrant que leur impact sur le niveau de performance de l’algorithme en phase opérationnelle nuirait à l’atteinte des finalités des traitements ;


– une évaluation des garanties prévues au VI de l’article 10 de la loi, notamment des mesures de contrôle humain et du système de gestion des risques permettant de prévenir et de corriger la survenue de biais éventuels ou de mauvaise utilisation, incluant une évaluation des cas rares, communément appelés cas « aberrants » ;


– une description de la méthodologie utilisée pour évaluer la perception de l’expérimentation et des traitements algorithmiques par les personnes concernées ;


– une évaluation des éléments sur les mesures de sécurité mises en place afin d’assurer la disponibilité, la confidentialité et l’intégrité des données traitées en conditions opérationnelles.


Chat Icon