“La vidéosurveillance algorithmique restera après les J.O.” Entretien avec Noémie Levain

Jules Panetier Publié le 20 juillet 2024 à 16:49 (mis à jour le 20 juillet 2024 à 16:49)
Slogan vu sur les pavés Montpelliérains lors de la manifestation du 6 juin contre la réforme des retraites. Photo : Mathieu Le Coz/"Le Poing"

Les Jeux Olympiques sont, à chaque fois, une opportunité pour les gouvernements du monde entier de faire passer des lois sécuritaires présentés comme « exceptionnelles » alors qu’elles étaient déjà dans les cartons depuis bien longtemps. L’édition des J.O. 2024 à Paris n’échappe pas à la règle, avec l’introduction de la vidéosurveillance algorithmique, une technologie qui prétend définir ce qui est suspect ou non dans l’espace public. Le Poing en a causé avec Noémie Levain, de la Quadrature du Net, une association de défense et de promotion des droits et libertés sur Internet, fondée en 2008.

Article initialement paru dans le journal papier numéro 40 du Poing, “Un autre sport est possible” en mars 2023.

Le Poing : Qu’est-ce que la vidéo- surveillance algorithmique et quel est son cadre législatif ?
Noémie Levain : C’est une technologie qui prétend analyser les images de vidéosurveillance en temps réel pour repérer des comportements soi-disant suspects. En mai 2023, le Conseil constitutionnel a validé le cadre législatif permettant l’expérimentation de la vidéosurveillance algorithmique (VSA), et comme c’était en plein mouvement social contre la réforme des retraites, c’est relativement passé à la trappe à l’époque. Quand la loi es tpassée, on ne savait pas encore quels étaient ces fameux comportements suspects, il a fallu attendre un décret, à la fin de l’été 2023, pour les connaître. On sait désormais que l’algorithme considérera comme suspect la présence d’objets abandonnés, la présence ou l’utilisation d’armes, le non-respect, par une personne ou un véhicule, du sens de circulation commun, le franchisse-ment ou la présence d’une personne ou d’un véhicule dans une zone interdite ou sensible, la présence d’une personne au sol à la suite d’une chute, un mouvement de foule, une densité trop importante de personne et des départs de feux. Gare à celui qui marcherait à contre-sens ! C’est une technologie qui prétend définir qui est légitime ou non dans l’espace public.

Est-ce qu’on connaît avec précision l’algorithme en question ?
Non, et il n’est pas dit que quelqu’un le connaisse vraiment. On va demander à l’algorithme, par exemple, de reconnaître quelqu’un qui marche à contre-sens, et ce qui compte, pour ceux qui définissent l’algorithme, c’est le résultat, et non la manière dont on l’obtient. On apprend à l’algorithme à travailler avec des données, mais l’humain ne sait pas vraiment ce qu’il y a dans la boîte noire. Et c’est particulièrement problématique car on parle de données issues de l’être humain. En somme, on ne fait que mettre dans le marbre du code informatique les préjugés policiers. Rien ne nous dit, par exemple, que l’algorithme ne se servira pas de pixel de couleur de la peau pour déterminer qui est suspect ou non…Y a-t-il déjà des précédents de l’utilisation de la VSA ? Commençons par dire qu’il apparaît de plus en plus clairement que la vidéo-surveillance classique n’a aucune espèce de rapport avec ce qu’on appelle la sécurité. En fait, aucune étude, aucune évaluation publique n’a jamais prouvé que la vidéosurveillance avait un effet sur la délinquance, sans parler de son coût faramineux. C’est donc sur la base de ce grand flou qu’on nous pré-sente la VSA comme une évolution…L’année dernière, les députés Philippe Latombe (Modem) et Philippe Gosse-lin (LR) avaient publié un rapport parlementaire dans lequel ils faisaient état de l’expérimentation de la VSA à Paris, à la Gare du Nord et à Roland-Garros, et avouaient à demi-mot que ça n’avait pas marché et qu’il fallait donc… approfondir l’expérience ! On sait aussi que la a été testée lors de deux concerts de Depeche Mode à Paris, début mars 2024, et qu’il y aura d’autres essais grandeur nature d’ici les J.O.

Comment s’est imposée cette technologie en France ?
Comme toujours avec les dispositifs sécuritaires, l’existence d’un marché a précédé le dispositif législatif. La principale raison pour laquelle on se retrouve avec cette technologie aux J.O. est d’ordre économique : il y a beaucoup d’entreprises qui se sont positionnées sur cette technologie depuis des années qui ont tout fait pour que la loi évolue, et ce n’est pas étonnant que l’on délègue ensuite la mise en place de cette technologie à des acteurs privés. Inutile de s’assurer qu’il y ait un besoin, tant qu’il y a une demande. Le marché public pour la mise en place de la VSA a été lancé pendant l’été 2023 et il y a eu beaucoup de retard, puisque les réponses n’ont été données qu’en janvier 2024, avec trois grands gagnants à la clé : la start-up Wintics, qui installera ses logiciels en Île-de-France ,la start-up Videtics, qui se chargera des Outre-Mer et du Sud, et le gros groupe Chapvision pour les autres régions. Les J.O. servent de vitrine vers le monde pour montrer le savoir-faire français en termes de sécurité et de surveillance, ça permet aussi de tester les technologies, pour accélérer l’émergence d’un marché qui existait déjà.

On imagine mal que la technologie disparaisse à la fin des Jeux…
Le cadre législatif permet l’expérimentation de la VSA jusqu’en mars 2025 pour « assurer la sécurité de manifestations sportives, récréatives ou culturelles, qui, par leurs ampleurs ou leurs circonstances sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ». Pour résumer, les préfets peuvent désormais prendre des arrêtés pour mettre en place la VSA à peu près quand bon leur semble… Et ce n’est que le début ! Les J.O. vont certes représenter un moment paroxystique de la saturation policière et d’un mouvement sécuritaire à l’œuvre, notamment depuis la loi sécurité globale, avec la prolifération des sources d’images et de surveillance, mais ce qu’on peut craindre, au regard des enjeux économiques, c’est la pérennisation d’autres technologies tout aussi intrusives. On parle notamment de la VSA différée, avec l’analyse d’images à posteriori, ou le recours à la reconnaissance faciale en temps réel couplée au fichier de traitement d’antécédents judiciaires…

Comment lutter contre cet enfer sécuritaire ?
À la Quadrature, on a lancé des collectifs Technopolice un peu partout e nFrance, et notamment à Montpellier, pour documenter et lutter contre ces technologies sécuritaires. La création d’un comité d’évaluation de la VSA est prévu, ce qui est assez inédit, et dansl es critères d’évaluation, il y a l’acceptabilité sociale. On sait donc ce qu’il nous reste à faire…

Nos articles sont gratuits car nous pensons que la presse indépendante doit être accessible à toutes et tous. Pourtant, produire une information engagée et de qualité nécessite du temps et de l’argent, surtout quand on refuse d’être aux ordres de Bolloré et de ses amis… Pourvu que ça dure ! Ça tombe bien, ça ne tient qu’à vous :


ARTICLE SUIVANT :

Montpellier : environ 300 personnes devant la préfecture pour un gouvernement NFP