Par Agnes Callamard
Les projets français de surveillance par l’Intelligence Artificielle (IA) pendant les Jeux olympiques sont dangereux. La législation proposée pour étendre les pouvoirs de surveillance risque de transformer les Jeux olympiques de 2024 en une attaque massive contre le droit à la vie privée.
Ce mois-ci, les députés français devraient adopter une loi pour les Jeux olympiques de Paris 2024 qui, pour la première fois dans l’histoire du pays, autorisera la vidéosurveillance de masse grâce à des données fournies par des systèmes d’IA.
Lorsque les gouvernements s’engagent sur la pente glissante de l’expansion des pouvoirs de surveillance, cela a des conséquences dramatiques pour les droits humains fondamentaux, notamment les droits à la vie privée, à l’égalité et à la non-discrimination, ainsi que la liberté d’expression et de réunion pacifique.
Sous prétexte d’assurer la sécurité et de lutter contre le terrorisme, les autorités françaises pourront surveiller les mouvements de millions de personnes venues du monde entier, qu’elles se rendent dans les stades ou à proximité, ou qu’elles utilisent les transports publics pour entrer ou sortir de l’enceinte du grand rendez-vous sportif.
Le besoin de sécurité pendant le match est compréhensible, mais la transparence et la justification juridique sont nécessaires à chaque étape. Toute proposition concernant la sécurité doit être conforme aux droits fondamentaux.
Le droit international relatif aux droits de l’homme continue de s’appliquer dans le cadre des Jeux olympiques, et un examen rigoureux de ces mesures est essentiel.
Jusqu’à présent, le projet de loi ne démontre pas en quoi la vidéosurveillance assistée par ordinateur sera conforme aux normes en matière de droits de l’homme.
Le gouvernement français n’a pas démontré comment les mesures respectent le principe de proportionnalité et quelles garanties seront mises en place pour empêcher la création d’une infrastructure de surveillance permanente, telles que des mesures de protection de la vie privée, des contraintes et des limitations strictes en matière de finalité et de réutilisation des données.
Il s’agit d’une application pernicieuse et générale de la surveillance de masse par l’IA qui ne peut être justifiée.
Les menaces pour les droits de l’homme que représentent le développement et l’utilisation de l’IA par les entreprises privées et les autorités publiques dans l’Union européenne sont bien documentées. La technologie est utilisée au détriment des groupes marginalisés, notamment les migrants et les personnes à la peau noire ou foncée.
Dans une lettre ouverte initiée par le European Center for Not-for-Profit Law, 38 organisations de la société civile, dont Amnesty International, ont appelé les décideurs politiques français à rejeter le projet de loi autorisant la surveillance invasive, car il représenterait une menace monumentale pour les droits et libertés les plus basiques.
Le projet de loi soumettrait les spectateurs se rendant à des événements sportifs à Paris à une surveillance injustifiable, depuis les caméras fixes de vidéosurveillance omniprésentes jusqu’à des drones chargés de détecter les activités « anormales ou suspectes » dans les foules.
Ces définitions trop larges doivent être contestées et nous devons nous poser des questions urgentes…
Qui fixe la norme de ce qui est « normal » ? Les fonctionnaires qui contrôlent la désignation des activités « anormales ou suspectes » ont également le pouvoir d’exacerber l’effet dissuasif sur la dissidence et la protestation, et de renforcer la discrimination à l’encontre de communautés déjà ciblées.
Les États ont exploité les grands événements sportifs pour introduire et ancrer un panoptique de mesures de surveillance, faisant évoluer les sociétés vers une sombre utopie orwellienne.
Alors que les autorités françaises affirment qu’il s’agit d’une mesure expérimentale à court terme, Amnesty International craint que ce projet de loi n’étende silencieusement la surveillance de masse et les pouvoirs de police de manière permanente en France.
Les Jeux olympiques de Londres en 2012 sont un exemple frappant de la manière dont les États ont utilisé les grands événements sportifs pour mettre en place et étendre des mesures de surveillance intrusives, permanentes et oppressives.
En 2017, lors de la finale de la Ligue des champions de l’UEFA à Cardiff, la police du sud du Pays de Galles a utilisé des caméras de reconnaissance faciale et a signalé à tort près de 2000 personnes comme des criminels potentiels, montrant ainsi que de telles mesures sont intrusives et peu fiables.
À Amnesty International, nous avons largement documenté la manière dont des milliers de caméras de vidéosurveillance à reconnaissance faciale ont été déployées dans la ville de New York – la plupart d’entre elles au sein de communautés de couleur et démultipliant les pratiques policières discriminatoires sur le plan racial.
Cette technologie a mené au harcèlement des manifestants de Black Lives Matter et à des arrestations injustifiées de résidents majoritairement noirs.
Non seulement ce projet de loi constitue une étape dangereuse concernant la vie privée et les droits de l’homme, mais il trahit l’esprit même de la loi sur l’IA de l’Union européenne (UE) – un texte législatif d’importance mondiale qui vise à réglementer l’IA et à protéger les droits fondamentaux au sein de l’UE, dont la France est un membre influent.
Le projet de la France de déployer des mesures aussi sidérantes à l’occasion des Jeux olympiques pourrait influencer négativement la manière dont les systèmes d’IA et la surveillance de masse sont réglementés et régis dans l’UE.
Amnesty International estime que l’UE, dans le cadre de ses négociations sur la loi relative à l’IA, doit mettre un terme aux pratiques abusives et discriminatoires fondées sur l’intelligence artificielle, notamment à l’utilisation de tous les systèmes de reconnaissance faciale à des fins de surveillance de masse.
Avec une coalition d’acteurs de la société civile faisant campagne pour un règlement européen sur l’IA conforme aux droits de l’homme, Amnesty International a demandé l’interdiction totale des technologies de reconnaissance faciale qui permettent une surveillance massive et discriminatoire, ainsi que des systèmes qui catégorisent les personnes sur la base de caractéristiques protégées ou de l’identité de genre.
Nous avons également demandé l’interdiction des systèmes de reconnaissance des émotions qui prétendent déduire les émotions et les états mentaux des personnes, compte tenu de l’absence de validité scientifique de ces technologies et de leur caractère extrêmement intrusif.
En tant qu’État membre de l’UE, la France devrait se conformer à la réglementation européenne sur l’IA !
Ce nouveau projet de loi mettra le droit français en conflit direct avec la législation européenne en cours d’élaboration. Entre-temps, en tant qu’État membre influent, la France tente d’abaisser le niveau élevé que la loi européenne sur l’IA vise à établir pour la protection des droits de l’homme.
Si la France légalise la surveillance de masse au niveau national, l’un des plus grands événements sportifs de la planète risque de devenir l’une des plus importantes atteintes au droit à la vie privée dans le monde.
Auteur : Agnes Callamard
* Agnès Callamard est la directrice générale du Secrétariat international d’Amnesty International et la principale porte-parole de ce mouvement mondial, qui compte quelque 10 millions de sympathisants et des bureaux dans plus de 70 pays. Elle a été rapporteuse spéciale des Nations unies sur les exécutions extrajudiciaires, sommaires ou arbitraires.Elle est devenue une figure incontournable de la défense des droits humains au fil des décennies. Son compte Twitter.
10 mars 2023 – Al-Jazeera – Traduction : Chronique de Palestine