Publié le 29 septembre 2023 par : Mme Belluco, M. Taché, M. Raux, Mme Arrighi, M. Bayou, M. Ben Cheikh, Mme Chatelain, M. Fournier, Mme Garin, M. Iordanoff, M. Julien-Laferrière, Mme Laernoes, M. Lucas, Mme Pasquini, M. Peytavie, Mme Pochon, Mme Regol, Mme Rousseau, Mme Sas, Mme Sebaihi, Mme Taillé-Polian, M. Thierry.
I. – La commercialisation, l’exploitation ou l’utilisation de traitements algorithmiques ayant pour objet ou pour effet de détecter, surveiller ou analyser le comportement d’une personne ou d’un groupe de personnes dans des espaces publics, est interdite.
II. – En conséquence, l’article 10 de la loi n° 2023‑380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions est abrogé.
L’analyse du comportement est une forme de surveillance de masse dans les espaces publics, censée alerter les autorités en cas de comportement « anormal ». De telles pratiques encouragent un comportement conforme à une norme qu’il serait souhaitable d’adopter collectivement. Ce faisant, en ce basant sur un « apprentissage » opaque, elles perpétuent et renforcent les discriminations en signalant sans raison des personnes respectueuses de la loi. La vidéosurveillance algorithmique, comme la vidéosurveillance avant elle, est donc inutile et dangereuse pour les libertés publiques et individuelles.
A ces éléments accablants s’ajoute la possibilité ouverte d’utiliser les images captées par vidéosurveillance algorithmique a posteriori. Il s’agit d’une autre atteinte aux droits des personnes : leur image ne servira plus seulement pour des raisons présumées de sécurité mais aussi pour l’apprentissage d’une intelligence artificielle (IA) à des fins commerciales. Il s’agit là d’une dérive inacceptable. De plus, la conservation des images après leur utilisation en temps réel, dans un contexte de cybersécurité sous haute tension, expose les personnes et leur image à des fuites de données et une à utilisation ultérieure hors de tout encadrement légal.
En outre, les données collectées, croisées avec d’autres fichiers, permettraient sans peine d’identifier des individus lors de manifestations par exemple. Ce n’est pas de la fiction : c’est déjà ce qui se passe dans d’autres pays. Le résultat de l’apprentissage réalisé par l’IA pendant les JOP pourrait être ensuite vendu par leurs développeurs à des pays tiers, notamment en Afrique et au Moyen-Orient, comme le font déjà des entreprises françaises spécialisées dans ce domaine (au Qatar par exemple). Ainsi, en permettant cette technologie, nous aidons potentiellement des régimes autoritaires à surveiller leurs populations.
Aussi, le Conseil d’État estime que ce traitement des images est susceptible de mettre en cause la protection de la vie privée et d’autres droits et libertés fondamentales, tels que la liberté d’aller et venir et les libertés d’opinion et de manifestation, lorsque ces dernières s’exercent à l’occasion de ces événements.
La CNIL a quant à elle précisé que l’application de ces nouvelles technologies de surveillance pourrait conduire à un traitement massif de données à caractère personnel. Elles ne constituent pas une simple évolution technologique, mais une modification de la nature des dispositifs vidéo, pouvant entraîner des risques importants pour les libertés individuelles et collectives et un risque de surveillance et d’analyse dans l’espace public.
Enfin, le Parlement européen a appelé à l’interdiction permanente de l’utilisation de l’analyse ou de la reconnaissance automatisée dans les espaces publics de [...] signaux comportementaux. (2020/2016(INI), par. 26).
L’objet de cet amendement est donc d’interdire les dispositifs de vidéosurveillance algorithmique tels qu’introduits en France dans la loi JOP, ceci en contradiction avec l’esprit de l’acte sur l’IA négocié au niveau européen.
Aucun commentaire n'a encore été formulé sur cet amendement.