Publié le 16 mars 2023 par : M. Peytavie, Mme Regol, M. Iordanoff, M. Lucas, Mme Pasquini, Mme Arrighi, M. Thierry, M. Bayou, Mme Belluco, Mme Chatelain, M. Fournier, Mme Garin, M. Julien-Laferrière, Mme Laernoes, Mme Pochon, M. Raux, Mme Rousseau, Mme Sas, Mme Sebaihi, M. Taché, Mme Taillé-Polian.
Compléter l’alinéa 7 par la phrase suivante :
« Ces personnes sont particulièrement sensibilisées à la reconnaissance de biais discriminatoires dans l’application de l’algorithme, notamment ceux basés sur la couleur de peau ou la situation de handicap. »
Le déploiement de la vidéosurveillance algorithmique qu’ambitionne le présent projet de loi laisse planer de sérieuses craintes sur les dérives sécuritaires que prend l’organisation des Jeux Olympiques et Paralympiques. Il présente non seulement un risque sur nos libertés mais également sur l’existence de biais dans le traitement des données, notamment de comportement que l’algorithme trouverait « anormaux ».
Amnesty International avertit, en effet, des risques de biais discriminatoires dans l’analyse des données, notamment des biais racistes, comme cela a déjà largement été documenté concernant les technologies de reconnaissance faciale à des fins sécuritaires.
De plus, de sérieux doutes sont à relever concernant cette technologie qui, parce qu’elle repose sur la détection « d’événements anormaux » comporte également de sérieux biais concernant certaines personnes en situation de handicap, déjà largement discriminées au quotidien dans un espace public dominé par le validisme. Les personnes en situation de handicap peuvent, en effet, avoir une manière de se déplacer ou une gestuelle différente de ce que l’algorithme considère comme « un comportement normal ».
En conséquence, et malgré toutes les supposées précautions avancées par le gouvernement, les algorithmes de vidéosurveillance sont éminemment politiques et traversés par des biais discriminatoires qui prennent le risque de porter préjudice à une fraction significative des citoyens et citoyennes. Dans cette optique, nous demandons, a minima, que les personnes qui manipuleront ces technologies de reconnaissance faciale bénéficient d’une sensibilisation à la reconnaissance de biais discriminatoires dans l’application de l’algorithme, notamment ceux basés sur la couleur de peau ou la situation de handicap.
Aucun commentaire n'a encore été formulé sur cet amendement.