Surveillance de masse et Jeux Olympiques et Paralympiques.

Les droits humains à l’épreuve des enjeux sécuritaires.

Par Alexandre CHATEL

Alors que les Jeux Olympiques et Paralympiques de Paris 2024 approchent à grands pas, les scandales et débats sur les techniques de surveillance entourant les événements sportifs, récréatifs et culturels, refont surface.

Dans cette note, nous revenons sur la loi JOP 2024, ses enjeux et sur les questionnements soulevés par ses dispositions quant aux respects des droits fondamentaux.

Pour accéder à toutes nos sources.

Introduction

Le 15 novembre 2023, le média d’investigation Disclose révélait l’usage illégal par la police nationale, depuis 2015, d’un logiciel de reconnaissance faciale. Toutefois, la dissimulation de son usage par le ministère de l’intérieur remet sur la table les débats entourant les techniques de surveillance employées sur la population, et leurs impacts sur nos droits fondamentaux.

Le 19 mai 2023, la loi dite « JOP 2024 » relative aux jeux Olympiques et Paralympiques de 2024 a été votée. Les jeux Olympiques et Paralympiques (JOP) se dérouleront à Paris et dans d’autres villes françaises du 24 juillet au 8 septembre 2024. Dans ce cadre, les dispositions de la loi JOP 2024 affichent le souhait d’éviter des incidents comme ceux qui ont eu lieu au Stade de France lors de la finale la ligue des champions en mai 2022 – mauvaise gestion de foule, double filtrage, actes de délinquance et opérations de rétablissements disproportionnées. A ce titre, la loi prévoit plusieurs dérogations aux règles normales et certaines “expérimentations” de nouvelles technologies en matière de surveillance.

La loi JOP 2024 porte initialement une mesure phare dans son article 7 : le recours à la vidéosurveillance « intelligente », ou « augmentée » (ci-après VSA), dans le but d’assurer la sécurité des « manifestations sportives, récréatives ou culturelles ». Une mesure décriée par de nombreux acteurs associatifs et institutionnels en raison des risques qu’elle présente en matière de rétrécissement des droits à la vie privée et au respect des données personnelles.

Dispositifs

Dispositifs

Les dispositifs de la loi JOP 2024

La VSA est un outil de surveillance biométrique. Le Règlement général de protection des données (RGPD) de l'Union européenne définit les données biométriques comme des informations relatives aux caractéristiques physiques, physiologiques ou comportementales permettant l'identification unique d'une personne.

La VSA couple des systèmes algorithmiques aux caméras de surveillance afin de « détecter, analyser et classer les corps et comportements » dans l’espace public. Son objectif est simple : alerter les services de police et faciliter le suivi des personnes. Ces traitements par intelligence artificielle (ci-après IA) sont en mesure de détecter en temps réel des événements dits prédéterminés, à savoir « des mouvements de foules, un sac abandonné ou des comportements suspects ». Ceux-ci ne pourront cependant pas utiliser des techniques de reconnaissance faciale ou recourir à des données biométriques.

Toutefois, la loi JOP 2024 comporte en parallèle plusieurs autres dispositions étendant le champ de la surveillance :

  • Une expérimentation de la VSA, au-delà de la tenue des JOP 2024, jusqu’au 31 mars 2025 ;

  • Une extension du champ des images de vidéoprotection visibles par les agents de la RATP et de la SNCF faisant partie du centre de coordination opérationnelle de la sécurité dans les transports d’Île-de-France ;

  • Une extension des compétences du préfet de police de Paris, « seul responsable de l’ordre public en Île-de-France » ;

  • Un élargissement des procédures dites de « criblages », à savoir l’augmentation des enquêtes administratives de sécurité au sein des “fan zones”, espaces privilégiés réservés aux supporters, ainsi qu’aux participants aux grands événements ;

  • Le recours à des scanners corporels à l’entrée des stades et autres enceintes sportives, récréatives ou culturelles accueillant plus de 300 personnes.

Dans ses premières dispositions, la loi soulève plusieurs questionnements : pourquoi l’expérimentation de la VSA est-elle poussée jusqu’en 2025 alors que les conditions qui ont justifié sa délivrance ne seront plus réunies ? Qui définit, et comment, les événements et comportements suspects détectables ? Comment assurer que tous les citoyen.ne.s auront donné leur consentement aux scanners corporels, comme le prévoit la loi JOP ? Une chose est sûre, cette loi entérine une tendance à étendre les dispositifs et territoires de la surveillance.

Enjeux éthiques

Enjeux éthiques

Les enjeux soulevés par la loi JOP 2024

La victoire d’un lobby

La VSA est un marché en expansion : en 2020, il valait plus de 11 milliards de dollars au niveau mondial, avec une croissance annuelle de 7%. Des entreprises de toutes les échelles et toutes les formes, allant de la multinationale (Thales, Safran, Idemia, IBM, Atos) à la “start-up” (XXII, Two-I, Datakalab, Aquale, Sensivic), obtiennent des financements importants, aussi bien du secteur public que privé. Par exemple, en 2022, 80 millions d’euros ont été alloués par le Ministère de l’Intérieur au fonds interministériel de prévention de la délinquance (FIPD), soit une augmentation de 10 millions par rapport à 2021, visant en priorité le déploiement de la vidéoprotection.

Ce lobby est également influent à l'intérieur même des instances publiques :

  • Le maire de Nice, Christian Estrosi, expérimente la VSA hors de tout cadre légal depuis plusieurs années ;

  • Le ministre de l'Intérieur, Gérald Darmanin, avait soutenu la VSA lors du vote de la loi JOP 2024, et est aujourd’hui au coeur d’un nouveau scandale sur l’usage illégal d’une surveillance basée sur la reconnaissance faciale ;

  • Ainsi que d'autres députés, sénateurs, secrétaires d'État, préfets et membres de la Cour des comptes.

La victoire de la loi JOP représente ainsi, en partie, la victoire d’un lobby composé de multinationales de la sécurité, de “start-up” sur l’IA et de décideurs politiques pro-surveillance qui gagnent les parts d’un marché opaque s’élevant à plusieurs milliards d’euros, dont le fonctionnement est peu documenté au grand public.

Protection des données et vie privée

Avant même son vote, la Commission nationale de l'informatique et des libertés (CNIL) se prononçait déjà le 8 décembre 2022 sur le projet de loi JOP. Présentant des enjeux forts en matière de protection des données personnelles et de vie privée, la CNIL exprimait :

  • Que le code de la sécurité intérieure (CSI) ne contient pas la conformité nécessaire avec le Règlement Général de Protection des Données (RGPD) de l’Union européenne et la directive « Police-Justice », alors que le projet de loi prévoit que les enregistrements visuels de vidéoprotection respectent le RGPD. Les normes européennes établies en matière de protection des données semblent alors ne pas trouver le cadre nécessaire à leur respect dans la législation française ;

  • Que l’expérimentation des caméras augmentées pour assurer la sécurité des grands événements soulève de nouveaux enjeux substantiels en matière de vie privée car elle conduit à une récolte massive de données personnelles et permettent une surveillance automatisée en temps réel, de masse et non ciblée.

Par ailleurs, selon le rapport “Projet de loi JO 2024” par Amnesty International, le projet de loi JOP comporte une erreur lorsqu’il affirme que les systèmes algorithmiques de vidéosurveillance ne traiteront aucune donnée biométrique. Puisque les caméras dotées d'algorithmes sont utilisées pour détecter des événements suspects, celles-ci analyseront, de fait, des traits physiologiques et des comportements de personnes dans l'espace public, tels que la posture, la démarche, les mouvements, les gestes ou même l'apparence. Cette isolation des individus par rapport à leur environnement, nécessaire pour atteindre l'objectif du système, constitue une « identification unique » au sens du RGPD.

Selon la définition précédemment établie, cette identification unique correspond bel et bien à un traitement des données biométriques par les systèmes algorithmiques de vidéosurveillance, et constitue de fait une faille de la loi, en ce qu'elle ne peut garantir une protection complète des données personnelles et de la vie privée.

Surveillance, censure et auto-censure

Ce nouveau dispositif soulève en effet des enjeux préoccupants en matière de respect de la vie privée car ces outils d’analyse d’images peuvent permettre une surveillance automatisée, voire « disproportionnée » de l’espace public, modifiant les comportements ou conduisant à des formes d’auto-censure.

Par sa simple présence dans des zones accessibles au public, la VSA non ciblée peut en effet avoir des effets dissuasifs sur l’exercice des libertés civiques fondamentales, avec notamment les libertés de réunion, d’association et d’expression, comme l’ont souligné le Comité européen et Contrôleur européen de la protection des données. Par exemple, la surveillance biométrique pourrait avoir des répercussions sur l’anonymat des citoyen.ne.s dans les espaces publics et ainsi avoir un effet négatif sur leur volonté et leur capacité à exercer leurs libertés, redoutant d’être identifié.e.s ou interpellé.e.s.

Une chose apparaît de manière certaine, le déploiement de la VSA, même à titre expérimental, va contribuer de manière déterminante à définir le rôle général attribué aux technologies IA.

Biais discriminatoires

En théorie, les garanties prévues par la loi devraient permettre de limiter les risques d’atteinte aux données et à la vie privée des personnes : un déploiement dit expérimental et temporaire, sans traitement des données biométriques, sans prise de décision automatique… Or, dès lors que des algorithmes sont chargés d’identifier des situations dites anormales, il convient de questionner la définition même de la norme préétablie. Comment s’assurer que des groupes déjà marginalisés ne seront pas davantage pris pour cible ?

Les technologies, conçues par des humains, ne sont pas exemptes de biais discriminatoires. Selon Amnesty International, détournées de leur usage initial, et couplées avec l’automatisation de leur recours, ces technologies risquent à terme de cibler des groupes déjà marginalisés. Selon Human Rights Watch, il est prouvé que « l'utilisation des technologies de surveillance crée un état de contrôle, de profilage et de suivi permanent qui nuit de manière disproportionnée aux personnes marginalisées ».

Ainsi, les situations de mendicité ou de rassemblement statique pourraient être perçues comme suspectes, renforçant les risques de discrimination pour les personnes qui passent beaucoup de temps dans l’espace public, à l’image des personnes sans-abris, en situation de vulnérabilité économique ou de handicap. Davantage surveillées, celles-ci pourraient notamment faire l’objet de contrôles arbitraires, participant ainsi à une stigmatisation accrue de leur présence dans l’espace public.

Surveillance et technopolice

Alors que loi JOP 2024 soulève de nombreux débats, il convient de rappeler qu’au-delà de la traditionnelle opposition entre surveillance et sécurité, la technologie n’est pas neutre mais elle constitue un outil au service du pouvoir – qu’il s’agisse d’une vidéosurveillance automatisée, de microphones intelligents, de police prédictives ou même encore, de drones.

En effet, selon La Quadrature du Net, association de recherche défendant les libertés face au développement des technologies numériques, « bien qu’elle soit plurielle et elle aussi soumise à des tendances contradictoires, elle [la technologie] est globalement produite – et elle tend généralement à reproduire – un système politique, économique et social ». Il est ainsi important de rappeler que le numérique est un fait social total et qu’il n'est plus possible de penser politiquement sans lui.

A ce titre, dans son rapport “Projet de loi JO 2024” Amnesty International souligne une tendance inquiétante des gouvernements à étendre leurs pouvoirs de surveillance au nom de la sécurité. Celui-ci cherche à dénoncer la persistance des mesures d'exception de surveillance, souvent dépourvues de garanties adéquates, de transparence, et de dialogue avec les parties concernées. Ils mettent également en garde contre le précédent dangereux que cela pourrait créer pour d'autres pays européens et soulignent que la France pourrait devenir un "leader" controversé en matière de politiques de surveillance au sein de l'Union Européenne.

Enjeux réglementaires

Enjeux réglementaires

Enjeux de réglementation

Une loi contraire au droit ?

Peu après son vote, l’Observatoire des libertés et du numérique (OLN) invitait le Conseil Constitutionnel à censurer dans la loi : l’article 7 sur la VSA, l’article 11 sur les scanners corporels et l’article 12 sur l’infraction d’intrusion dans les stades.

De plus, l’OLN montrait que le recours à la VSA ne répond ni à la condition de nécessité ni à l’exigence de proportionnalité :

  • Le gouvernement ne parvient pas à montrer l’intérêt de la VSA dans la prévention de la délinquance et criminalité ;

  • Les atteintes aux droits sont disproportionnées par rapport aux résultats escomptés et dépendent du « bon vouloir de l’Etat » ;

  • L’opacité de la conception des algorithmes par le secteur privé n’est pas remise en question.

Si l’article 7 a été déclaré non conforme avec la Constitution le 17 mai 2023 par le Conseil Constitutionnel, l’adoption de cette loi érige néanmoins la France en tant que premier État de l'Union européenne à légaliser explicitement de telles pratiques. Selon Human Rights Watch, les mesures de surveillance proposées contreviennent au droit international des droits de l'homme, car elles ne respectent pas les principes de nécessité et de proportionnalité.

Une technologie qui n’a pas fait ses preuves ?

Un autre élément important, et néanmoins peu discuté, renvoie à l’efficacité même des outils dits intelligents. En effet, on observe des résultats mitigés quant aux expérimentations de vidéosurveillance augmentée au cours de la dernière décennie :

  • En 2016, des tests de caméras « intelligentes » par la SNCF sans résultats clairs communiqués ;

  • En 2019, des affirmations non détaillées du succès de l’usage d’une reconnaissance faciale à Nice critiquées par la CNIL ;

  • En 2020, l'abandon par la RATP d'une détection automatique du port du masque à la station Châtelet-Les Halles en raison d'un taux de détection jugé insuffisant.

De plus, il existe des différences de fiabilité entre les types d'outils de vidéosurveillance. Alors que la détection d'incendies grâce à des caméras thermiques est bien établie, la fiabilité diminue à mesure que les caméras prétendent détecter et analyser les comportements humains. Si les techniques de surveillance peuvent servir à prévenir de certains dangers, le recours à des formes de vidéosurveillance augmentée semble ne pas constituer une solution efficace lorsqu’il s’agit de comportements humains.

Conclusion

Ainsi, l’adoption de la loi JOP 2024 entérine le constat d'un État de surveillance généralisé ainsi que d’une banalisation des techniques de surveillance sur la vie privée. De nombreux·ses expert·e·s, avec un large consensus, ont mis en garde contre les biais algorithmiques et l'absence d'études démontrant clairement leur efficacité. Pourtant, le Parlement a adopté un texte inquiétant pour les libertés publiques. La temporalité de la loi, liée à l'organisation des Jeux Olympiques et Paralympiques jusqu'en 2024, soulève des inquiétudes quant à une extension potentielle des dispositifs techno-sécuritaires, l'expérimentation pouvant se prolonger, au-delà de la tenue des Jeux, jusqu’au 31 mars 2025.

L'autocensure des citoyen·ne·s, limitant leur propre liberté de mouvement, par crainte (réelle ou perçue) d'être surveillé·e·s, voire identifié·e·s par des systèmes d'intelligence artificielle, est un phénomène déjà documenté et qui ne doit pas être ignoré. Nul·le ne doute du besoin d’assurer la sécurité autour des événements sportifs, récréatifs et culturels. Les événements sportifs mondiaux constituent cependant des occasions d'adopter des dispositifs renforçant dans le temps les techniques de surveillance, qu’il convient d’interroger.

Bibliographie

Sources publiques

Légifrance, « LOI n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions », https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000047561974 (consulté le 27 novembre 2023).

Vie publique, « Finale de la Ligue des Champions au Stade de France : des incidents aux multiples raisons », 13 juillet 2022, https://www.vie-publique.fr/en-bref/285407-incidents-au-stade-de-france-un-rapport-pointe-un-enchainement-de-faits (consulté le 27 novembre 2023).

Vie publique, « Loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions », 22 mai 2023, https://www.vie-publique.fr/loi/287639-jo-2024-loi-du-19-mai-2023-jeux-olympiques-et-paralympiques (consulté le 27 novembre 2023).

Articles scientifiques

La Quadrature du Net, « Le numérique nous insère dans une trame toujours plus resserrée », 30 mars 2023, https://www.laquadrature.net/2023/03/30/le-numerique-nous-insere-dans-une-trame-toujours-plus-resserree/ (consulté le 27 novembre 2023).

La Quadrature du Net, « Vidéosurveillance biométrique : derrière l’adoption du texte, la victoire d’un lobby », 5 avril 2023, https://www.laquadrature.net/2023/04/05/videosurveillance-biometrique-derriere-ladoption-du-texte-la-victoire-dun-lobby/ (consulté le 27 novembre 2023).

La Quadrature du Net, « Loi JO 2024 : passage de flambeau au Conseil Constitutionnel », 24 avril 2023, https://www.laquadrature.net/2023/04/24/loi-jo-2024-passage-de-flambeau-au-conseil-constitutionnel/ (consulté le 27 novembre 2023).

Rapports

Amnesty International, « Projet de loi JO 2024 : « la France deviendrait le premier état de l’union européenne à légaliser la vidéosurveillance algorithmique », 7 mars 2023, https://www.amnesty.fr/liberte-d-expression/actualites/tribune-projet-de-loi-jo-2024-alerte-sur-l-utilisation-videosurveillance-algorithmique (consulté le 27 novembre 2023).

Amnesty International, « Coupe du monde de rugby : dernier grand événement avant la surveillance algorithmique ? », 8 septembre 2023, https://www.amnesty.fr/actualites/france-videosurveillance-algorithmique-loi-jo-2024 (consulté le 27 novembre 2023).

Banque des territoires, « Vidéoprotection, contrat d'engagement républicain...les nouveautés de la circulaire FIPD pour 2022 », 15 février 2022, https://www.banquedesterritoires.fr/videoprotection-contrat-dengagement-republicain-les-nouveautes-de-la-circulaire-fipd-pour-2022 (consulté le 27 novembre 2023).

Commission nationale de l’informatique et des libertés, « Jeux olympiques et paralympiques 2024 : la CNIL publie son avis sur le projet de loi », 4 janvier 2023, https://www.cnil.fr/fr/jeux-olympiques-et-paralympiques-2024-la-cnil-publie-son-avis-sur-le-projet-de-loi (consulté le 27 novembre 2023).

Human Rights Watch, « France : Rejeter la surveillance dans la loi sur les Jeux Olympiques 2024. Un système de surveillance basé sur des algorithmes violerait les droits fondamentaux », 7 mars 2023, https://www.hrw.org/fr/news/2023/03/07/france-rejeter-la-surveillance-dans-la-loi-sur-les-jeux-olympiques-2024 (consulté le 27 novembre 2023).

Articles de presse

Destal Mathias, Le Foll Clément, Livolsi Geoffrey, « La police nationale utilise illégalement un logiciel israélien de reconnaissance faciale », Disclose, 14 novembre 2023, https://disclose.ngo/fr/article/la-police-nationale-utilise-illegalement-un-logiciel-israelien-de-reconnaissance-faciale (consulté le 27 novembre 2023).

Leloup Damien, « Adoptée pour les JO de Paris 2024, la surveillance algorithmique n’a jamais fait ses preuves », Le Monde, 10 mars 2023, https://www.lemonde.fr/idees/article/2023/03/10/adoptee-pour-les-jo-de-paris-2024-la-surveillance-algorithmique-n-a-jamais-fait-ses-preuves_6164900_3232.html (consulté le 27 novembre 2023).

Maurel Raphaël, Secrétaire général de l’Observatoire de l’éthique publique, « Paris 2024 : ‘Réécrire le décret sur la vidéoprotection algorithmique est une nécessité pour éviter des dérives prévisibles’ », tribune dans Le Monde, 23 septembre 2023, https://www.lemonde.fr/idees/article/2023/09/23/paris-2024-reecrire-le-decret-sur-la-videoprotection-algorithmique-est-une-necessite-pour-eviter-des-derives-previsibles_6190626_3232.html (consulté le 27 novembre 2023).

Vous avez aimé cette note ?

Si vous avez apprécié cet article, si vous avez la moindre question sur son contenu, ou si vous souhaitez avoir plus d’informations sur l’association et ses pratiques de recherche :