Publié le 3 mars 2023 par : Mme Élisa Martin, Mme Abomangoli, M. Alexandre, M. Amard, Mme Amiot, Mme Amrani, M. Arenas, Mme Autain, M. Bernalicis, M. Bex, M. Bilongo, M. Bompard, M. Boumertit, M. Boyard, M. Caron, M. Carrière, M. Chauche, Mme Chikirou, M. Clouet, M. Coquerel, M. Corbière, M. Coulomme, Mme Couturier, M. Davi, M. Delogu, Mme Dufour, Mme Erodi, Mme Etienne, M. Fernandes, Mme Ferrer, Mme Fiat, M. Gaillard, Mme Garrido, Mme Guetté, M. Guiraud, Mme Hignet, Mme Keke, M. Kerbrat, M. Lachaud, M. Laisney, M. Le Gall, Mme Leboucher, Mme Leduc, M. Legavre, Mme Legrain, Mme Lepvraud, M. Léaument, Mme Pascale Martin, M. Martinet, M. Mathieu, M. Maudet, Mme Maximi, Mme Manon Meunier, M. Nilor, Mme Obono, Mme Oziol, Mme Panot, M. Pilato, M. Piquemal, M. Portes, M. Prud'homme, M. Ratenon, M. Rome, M. Ruffin, M. Saintoul, M. Sala, Mme Simonnet, Mme Soudais, Mme Stambach-Terrenoir, Mme Taurinya, M. Tavel, Mme Trouvé, M. Vannier, M. Walter.
Supprimer cet article.
Par cet amendement, nous exprimons notre rejet du principe-même consistant à confier à des systèmes d'intelligence artificielle programmés notre sécurité collective. Cet article 7 autorise en effet l'utilisation de traitements algorithmiques permettant d'identifier, sur les images captées par des dispositifs de vidéosurveillance, des évènements révélant un risque pour la sécurité des personnes.
Plus précisément, cet article 7 crée, à titre expérimental et pour une durée limitée, un cadre juridique nouveau permettant le traitement des images issues de la vidéoprotection ou de caméras installées sur des aéronefs par des systèmes d'intelligence artificielle, afin de permettre, à l'occasion de manifestations récréatives, sportives ou culturelles qui, par leur ampleur ou leurs circonstances seraient particulièrement exposées à des risques supposés d'actes de terrorisme ou d'atteinte grave à la sécurité des personnes, la détection et le signalement en temps réel, dans ou aux abords des lieux accueillant ces manifestations ainsi que dans les moyens de transport et sur les voies les desservant, d'évènements prédéterminés susceptibles de présenter ou de révéler l'un de ces risques et à en améliorer le traitement, dans le cadre de leurs missions respectives, par les services de la police et de la gendarmerie nationales, les services d'incendie et de secours, les services de police municipale et les services internes de sécurité de la SNCF et de la RATP.
L'expérimentation s'appliquera dès l'entrée en vigueur de la loi pour permettre l'apprentissage des dispositifs avant leur utilisation durant les jeux Olympiques et Paralympiques et jusqu'au 30 juin 2025. Or,le périmètre des agents concernés (police, gendarmerie, police municipale, agents SNCF et RATP) ne permet pas de toute façon d'exercer un contrôle déontologique efficient. D'autre part, puisque ce sont des entreprises privées qui, concevant les algorithmes vendus aux collectivités territoriales, décideront ce qui génère une alerte pour « comportement anormal ou suspect », elles se verraient confier un pouvoir de police et d’édiction des normes et des comportements dans l’espace public, ce qui est contraire au principe démocratique. Ces risques d'atteinte aux libertés individuelles ne sont compensés par aucune montée en puissance de quelconques contre-pouvoirs. Enfin, les capacités techniques déployées ici autorisent aisément à l'avenir (même si cette option a été écartée pour l'heure par le Sénat - alors qu'une proposition de loi est déjà annoncée sur le sujet) la mise en oeuvre de systèmes de reconnaissance faciale qui nous feraient basculer vers une nouvelle ère de la surveillance de masse indigne de notre démocratie. Nous nous opposons fermement à cette dérive autoritaire qui utiliseraient le JO comme prétexte de mise en oeuvre.
Aucun commentaire n'a encore été formulé sur cet amendement.