Il s'agit d'un amendement de notre excellent collègue Sébastien Peytavie.
Le déploiement de la vidéosurveillance algorithmique qu'ambitionne le présent projet de loi laisse planer de sérieuses craintes sur les dérives sécuritaires – nous n'en finissons pas –, notamment à travers la définition légale des comportements anormaux et donc de l'anormalité. Amnesty International, entre autres, avertit des risques de biais discriminatoires dans l'analyse des données, en particulier de biais racistes, nous l'avons déjà largement expliqué. De plus, nous avons de sérieux doutes concernant cette technologie qui, parce qu'elle repose sur la détection de ces fameux événements anormaux, comporte également de sérieux biais concernant certaines personnes en situation de handicap, qui sont déjà une des populations les plus discriminées selon la Défenseure des droits ; elles le sont au quotidien dans un espace public pensé pour et par des personnes 100 % valides. Les personnes en situation de handicap peuvent en effet avoir une manière de se déplacer ou une gestuelle différente de ce que l'algorithme va considérer comme un comportement normal. Quels sont les fondements d'une norme édictée pour définir la façon de se mouvoir et de se comporter dans une société de libertés ? On pourrait assister à une incrimination de personnes en raison de leur couleur de peau ou de leur handicap, ou encore de leur façon de s'habiller pour l'unique motif qu'elles circulent dans la rue.
En conséquence, et malgré toutes les prétendues précautions avancées – nous les avons bien entendues, monsieur le ministre –, ce projet de loi laisse planer un risque important de discrimination dans l'espace public. C'est intolérable dans la supposée patrie des droits humains. Ce texte offre un boulevard aux entreprises pour user et abuser de ces traitements algorithmiques. Certes, ils sont présentés comme neutres, mais la technologie n'est jamais neutre : elle est éminemment politique et plus encore le traitement des données. Nous demandons donc au minimum que les personnes qui manipulent ces technologies bénéficient d'une sensibilisation à la reconnaissance des biais discriminatoires.