Caméras, drones… Qu'est-ce que la vidéosurveillance algorithmique, que veut généraliser le gouvernement?

Elle a été expérimentée pendant plusieurs mois, dans le cadre des JO 2024. Auprès de Tech&Co, le ministère de l'Intérieur confirme ce 2 octobre sa volonté de généraliser la vidéosurveillance algorithmique, également appelée vidéosurveillance "intelligente". Une volonté qui passera par un nouveau projet de loi, assure le cabinet de Bruno Retailleau. Et pour cause: l'expérimentation telle qu'elle est prévue dans la loi devra s'arrêter au 31 mars 2025.
Détection automatisée
Concrètement, la vidéosurveillance algorithme peut s'appuyer sur les images déjà captées par les milliers de caméras déployées dans les espaces publics (rue, gares etc.), ou même sur des drones - également autorisés depuis 2023. La principale nouveauté consiste à envoyer les images à un logiciel spécifique, doté d'une intelligence artificielle censée pouvoir les analyser en temps réel.
Dans le cadre de l'expérimentation dédiée aux JO 2024 basée sur environ 500 caméras, le décret évoque, entre autres, la détection d'objets abandonnés, d'une arme, mais aussi d'une chute d'un individu au sol, d'un mouvement de foule ou d'un départ de feu. Une liste d'événements à détecter qui pourrait évidemment s'allonger avec le temps.
Toujours selon le décret, les analyses des logiciels déployés "ne produisent aucun autre résultat et ne peuvent fonder, par eux-mêmes, aucune décision individuelle ni aucun acte de poursuite". Autrement dit: ils ne peuvent être utilisés que pour alerter des agents, qui doivent ensuite décider d'intervenir ou non.
Une efficacité en question
Auditionné par la commission des lois de l'Assemblée nationale, le préfet de Paris, Laurent Nunez, s'était réjoui le 25 septembre de l'utilisation de la vidéosurveillance algorithmique lors des JO.
S'il avait concédé que l'outil n'avait mené à aucune interpellation, Laurent Nunez avait plaidé pour sa généralisation, pour aider les forces de l'ordre à repérer de potentiels troubles à l'ordre public, par exemple dans des "manifestations sportives ou culturelles comme des concerts".
Pour autant, et comme le prévoit la loi liée à l'expérimentation, un rapport d'évaluation de l'efficacité de la vidéosurveillance "intelligente" devra être remis au Parlement avant la fin de l'année. Pour l'heure, il reste donc impossible de connaître la véritable efficacité de cette vidéosurveillance assistée par intelligence artificielle, dans le cadre de l'expérimentation française.
L'épineuse question de la vie privée
La question de l'efficacité se pose d'autant plus qu'elle s'associe à celle de la protection de la vie privée, et du risque de surveillance de masse. C'est en tout cas ce que pointait la Cnil en 2022.
"Une généralisation non maîtrisée de ces dispositifs, par nature intrusifs, conduirait à un risque de surveillance et d’analyse généralisée dans l’espace public susceptible de modifier, en réaction, les comportements des personnes circulant dans la rue ou se rendant dans des magasins" alertait ainsi la Commission sur son site.
Aux yeux de la Cnil, un tel dispositif doit donc montrer son efficacité là où il est appliqué, tout en minimisant la collecte de données, et surtout, ne pas franchir une ligne rouge: la reconnaissance faciale.
En effet, si la vidéosurveillance algorithmique est censée identifier des comportements, il reste strictement interdit d'y intégrer des fonctions permettant d'identifier un individu en particulier. La Cnil insiste ainsi pour "ne jamais utiliser ces caméras à des fins de 'notation' des personnes".