La séance est ouverte à 9 heures.
Présidence de M. Sacha Houlié, président.
La Commission examine les articles du projet de loi, adopté par le Sénat après engagement de la procédure accélérée, relatif aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions (n°809) (M. Guillaume Vuilletet, rapporteur)
Nous examinons aujourd'hui les articles qui n'ont pas été délégués à une autre commission du projet de loi, adopté par le Sénat après engagement de la procédure accélérée, relatif aux jeux Olympiques et Paralympiques (JOP) de 2024 et portant diverses autres dispositions.
Je rappelle que nous avons délégué au fond les articles 1er, 2 et 17 à la commission des affaires sociales, et les articles 4, 4 bis, 5, 14 A et 14 à la commission des affaires culturelles et de l'éducation. Sur ces articles, il n'y aura donc aucun débat. Nous devrons seulement adopter formellement les amendements et les articles adoptés par ces commissions.
Nous allons pouvoir commencer directement l'examen des amendements puisque la discussion générale a eu lieu la semaine dernière à l'occasion de l'audition de la ministre des sports et des Jeux olympiques et paralympiques. Si nous n'en avons pas terminé ce matin, une seconde réunion est prévue ce soir à vingt et une heures.
J'ai contrôlé la recevabilité des amendements avec la rigueur habituelle. Le nombre élevé d'amendements irrecevables s'explique moins par une particulière sévérité que par l'étendue de votre imagination. J'ai déclaré irrecevables des amendements issus de tous les groupes politiques – y compris un amendement que j'avais moi-même déposé.
Encore une fois, le lien s'apprécie par rapport aux dispositions précises du projet de loi et non par rapport aux thématiques abordées. De plus, s'agissant d'un texte qui nous vient du Sénat, il faut avoir à l'esprit que le champ de la recevabilité est constitué par le texte délibéré en conseil des ministres et non par celui transmis par le Sénat. Ainsi, tous les amendements qui avaient un lien avec un article additionnel introduit par le Sénat ont dû être déclarés irrecevables.
Les articles 1er et 2 sont réservés, en attendant que la commission des affaires sociales ait achevé ses travaux.
Article 3 (art. L. 726-1 du code de la sécurité intérieure et art. L. 312-13-1 du code de l'éducation) : Élargissement du périmètre des acteurs autorisés à délivrer des formations aux premiers secours
La commission adopte l'amendement rédactionnel CL441 de M. Guillaume Vuilletet, rapporteur.
Elle adopte l'article 3 modifié.
Nous en venons aux articles 4, 4 bis et 5 délégués à la commission des affaires culturelles et de l'éducation.
Article 4 (examen délégué) : Autorisation de l'examen des caractéristiques génétiques ou de la comparaison des empreintes génétiques pour les analyses antidopage
La commission adopte successivement les amendements CL509, CL511, CL510, CL512, CL513, CL514, CL517, CL515 et CL520 de la commission des affaires culturelles et de l'éducation.
Elle adopte l'article 4 modifié.
Article 4 bis (examen délégué) : Réciprocité de l'échange d'informations entre l'Agence française de lutte contre le dopage (AFLD) et la cellule de renseignement financier nationale (Tracfin)
La commission adopte l'article 4 bis non modifié.
Article 5 (examen délégué) : Application des règles relatives à la lutte contre le dopage en Polynésie française
La commission adopte successivement les amendements CL518 et CL516 de la commission des affaires culturelles et de l'éducation.
Elle adopte l'article 5 modifié.
Article 6 (art. L. 223-1, L. 223-3, L. 251-1, L. 251-2, L. 251-3, L. 251-7 [abrogé], L. 252-1, L. 252-2, L. 252-4, L. 253-2 [abrogé], L. 253-3, L. 253-4, L. 253-5, L. 254-1, L. 255-1, L. 272-2 du code de la sécurité intérieure et art. L. 1632-2 du code des transports) : Mise en conformité du régime encadrant la vidéoprotection avec les règles relatives à la protection des données personnelles
Amendement de suppression CL235 de Mme Élisa Martin.
Avec cet amendement, nous nous opposons de nouveau au développement de la vidéosurveillance. Celle-ci n'a jamais démontré son efficacité opérationnelle, constitue le terrain privilégié de l'action des lobbies sécuritaires privés et représente une atteinte démesurée aux libertés individuelles. Or ce projet de loi étend son usage sans l'assortir d'une protection suffisante des données personnelles.
Selon le Gouvernement, le chapitre III dont fait partie cet article vise à mettre en œuvre tous les moyens nécessaires afin d'assurer la sécurité des JOP et, plus largement, des grands événements que la France est amenée à accueillir.
L'article 6 apporte plusieurs modifications au cadre légal de la vidéoprotection afin de tenir compte du règlement général sur la protection des données (RGPD) et de la directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016, dite directive « Police - Justice » – transposée au sein du titre III de la loi du 6 janvier 1978.
Or, sous couvert de mise en conformité avec le droit européen, l'article 6 écarte le regard de la Commission nationale de l'informatique et des libertés (CNIL). Il supprime notamment le rapport que le Gouvernement doit lui transmettre chaque année au sujet de l'activité des commissions départementales de vidéoprotection et des conditions d'application de la loi.
La dilution des responsabilités sur de tels enjeux de sécurité collective représenterait une menace disproportionnée contre les libertés publiques par rapport aux retombées potentielles attendues en matière de prévention du crime.
Je ne comprends pas bien l'argumentation – à moins qu'il s'agisse d'une opposition de principe à la vidéoprotection.
L'article 6 permet précisément d'assujettir les systèmes de vidéoprotection au régime du RGPD et à la loi « informatique et libertés ». Il s'agit de renforcer la protection des données personnelles et de la rendre plus cohérente.
Vous mentionnez la suppression d'un rapport sur les commissions départementales de vidéoprotection que le Gouvernement est censé transmettre à la CNIL. Ce rapport n'a en réalité jamais été rédigé depuis 2013. L'article 6 tire donc seulement les conséquences d'un état de fait.
Demande de retrait, à défaut avis défavorable.
Nous sommes démasqués ! En effet, nous sommes opposés par principe à ce que l'on filme tout le monde, tout le temps et partout ! C'est la position constante de notre groupe sur ces questions à chaque fois qu'elles sont débattues à l'Assemblée nationale.
Vous tentez d'enrober l'augmentation de la vidéosurveillance en vous référant au respect du RGPD et vous supprimez un rapport que le Gouvernement n'a, certes, jamais remis depuis 2013. Je pensais cependant qu'on ne renoncerait pas, parce que le contrôle de l'action de l'exécutif fait partie de nos missions constitutionnelles – notamment lorsqu'il s'agit des libertés publiques. Le président de notre commission fait d'ailleurs régulièrement état des rapports que le Gouvernement doit nous remettre. On ne peut pas accepter ce que prévoit cet article. De toute manière, le RGPD s'applique qu'il soit transposé ou non.
Pour vous, les maigres garanties qui existent sont encore trop grandes. C'est la raison pour laquelle nous proposons la suppression de cet article.
La commission rejette l'amendement.
Amendement CL240 de Mme Élisa Martin.
Cet amendement de repli tient compte de la discussion en cours sur un prochain règlement européen concernant l'intelligence artificielle. Vous êtes d'habitude tellement à cheval sur le respect de la réglementation européenne que nous vous proposons d'anticiper sur celle à venir.
L'alinéa qui figure dans l'amendement est très explicite : « En raison de l'adoption prochaine du règlement de l'Union européenne établissant des règles harmonisées concernant l'intelligence artificielle, est instauré un moratoire visant à suspendre l'adoption et le changement de toute réglementation relative aux systèmes de vidéosurveillance et à l'intelligence artificielle. Ce moratoire s'applique jusqu'à la promulgation du règlement européen. »
Si nous votons cet article tel qu'il est rédigé, le Gouvernement aura beau jeu de dire à Bruxelles que nous lui avons en quelque sorte confié un mandat pour ne pas défendre une position maximaliste en matière de garantie des libertés publiques – c'est le moins que l'on puisse dire… On aurait pourtant pu attendre de la patrie des droits de l'homme qu'elle fasse valoir une position exigeante.
Avis défavorable.
D'une part, l'amendement n'a pas véritablement de portée juridique.
D'autre part, le projet de règlement européen sur l'intelligence artificielle ne devrait pas voir le jour avant la fin de l'année 2024 – ce qui est trop tard par rapport à nos préoccupations.
Pour autant, j'entends ce que vous dites. Le vote de cette loi confortera la position de la France. Nous n'avons pas le vote honteux. J'espère que nous adopterons ce projet de loi en commission puis en séance publique, car nous pourrons nous prévaloir des garanties qu'il apporte sur la mise en œuvre de technologies lors des négociations en cours au niveau européen.
Aux dernière nouvelles, le nouveau règlement européen pourrait être adopté à la fin de l'année 2023, avec une mise en application progressive à partir de 2025. Le moratoire proposé par l'amendement durerait quasiment trois ans et il serait en vigueur pendant les JO. Or le projet de loi nous est proposé pour ces Jeux et son application est limitée dans le temps.
Vous demandez un moratoire qui interdit toute modification de la réglementation sur la vidéosurveillance et sur l'intelligence artificielle. On ne pourrait plus modifier le cadre juridique de la vidéosurveillance, même pour y apporter des garanties supplémentaires – comme le proposent les articles 6 et 7 de ce texte.
La commission rejette l'amendement.
Amendement CL241 rectifié de Mme Élisa Martin.
Nous proposons de parler de vidéosurveillance parce que ce terme correspond à une réalité.
La notion de vidéoprotection laisse à penser aux personnes qu'elles sont protégées par les caméras. Or cela n'est pas avéré et l'on observe plutôt que la délinquance se déplace. Laurent Mucchielli, qui a travaillé sur ce sujet, indique que moins de 1 % des enquêtes sont résolues grâce à la vidéosurveillance – ce qui est absolument minime.
C'est la raison pour laquelle il faut appeler un chat un chat et parler de vidéosurveillance plutôt que de vidéoprotection.
Nous ne sommes pas d'accord. Pour nous, il s'agit bien de disposer des outils technologiques qui permettent de mieux protéger des lieux et des personnes, avec des garanties pour préserver les libertés publiques. Nous allons en débattre dans cette commission pendant un certain temps.
Ces technologies ont prouvé leur efficacité à de nombreuses reprises – nous y reviendrons.
Le choix des mots est politique, et je fais un tel choix en demandant le maintien du terme « vidéoprotection ».
Je vous remercie d'avoir organisé des auditions qui nous ont éclairés de manière très précise. Mais je vous demande de citer les rapports qui indiquent que la vidéosurveillance a une quelconque efficacité pour protéger les citoyens. Nous pourrons discuter lorsque nous disposerons de ces études – mais je fais le pari qu'elles n'existent pas.
La commission rejette l'amendement.
Amendement CL423 de M. Philippe Latombe.
Notre groupe a déposé un certain nombre d'amendements d'appel. Nos débats auront en effet toute leur importance en cas de saisine du Conseil constitutionnel.
Le texte qui nous est proposé mentionne les images, mais pas le son. Or beaucoup d'entreprises ou d'opérateurs de transport indiquent qu'ils auraient besoin du son, notamment pour des levées de doute. Allons-nous jusqu'à autoriser explicitement la captation des images ainsi que du son ? Ou bien excluons-nous la captation de celui-ci ?
Cet amendement a pour objet d'en débattre, aussi bien en commission qu'en séance.
Il est certain qu'un enregistrement de l'image et du son en continu pourrait être très attentatoire aux libertés individuelles et aux libertés publiques. La loi peut-elle autoriser un usage limité de la captation du son ? Les images ne sont parfois pas explicites et disposer du son permettrait de clarifier une situation afin d'éviter d'envoyer les forces de l'ordre inutilement.
Nous pouvons discuter du contenu de l'amendement et je suis disposé à y apporter des modifications ou à le retirer.
Demande de retrait.
C'est un débat important, car nous sommes face à des technologies qui évoluent très rapidement. Il faudra se poser ces questions, mais je ne crois pas que ce projet de loi offre le cadre approprié pour y répondre.
Tout d'abord, l'article 6 ne prévoit pas la captation du son. Cette dernière élargirait considérablement le champ des données susceptibles d'être captées.
Ensuite, le texte met en place des garanties pour éviter que les systèmes qui seront mis en œuvre disposent de capacités d'identification. Proposer de capter le son ne poursuit pas cet objectif.
Enfin, les caméras de vidéoprotection en service ne sont généralement équipées d'aucun dispositif de captation sonore à ce jour.
Il est nécessaire de clarifier la situation.
En l'occurrence, nous pensons qu'enregistrer le son en permanence n'est pas conforme à la Constitution, car ce serait trop attentatoire aux libertés individuelles.
Mais peut-on autoriser la captation du son de manière ponctuelle, par exemple pour qu'un opérateur effectue une levée de doute lorsque se produit un événement ? Nous en débattrons de nouveau en séance.
L'amendement est retiré.
Amendement CL340 de M. Yoann Gillet.
L'article 6 propose de créer une nouvelle infraction afin de sanctionner le fait d'entraver l'action de la commission départementale de vidéoprotection – laquelle exerce une mission de conseil et d'évaluation de l'efficacité de la vidéoprotection.
La France connaît une recrudescence de la délinquance et de la criminalité, qui mine la vie de nos compatriotes. Nous sommes encore à quinze mois des JO de 2024 et le niveau d'incertitude sur la nature des menaces susceptibles de peser sur l'ordre public est encore très élevé. La criminalité visant nos concitoyens risque de connaître un pic durant les JO.
Le monde entier a pu constater la faible capacité de la France à garantir la sécurité des grands événements sportifs à l'occasion du fiasco total de la gestion de la finale de la Ligue des champions le 28 mai 2022.
Il faut anticiper les menaces bien en amont et ne pas s'y prendre seulement quelques semaines avant la cérémonie d'ouverture des JO. La prévention des infractions doit être à la hauteur des enjeux en matière de sécurité.
La peine proposée par cet article n'est pas assez dissuasive. C'est pourquoi nous proposons de la porter à deux ans d'emprisonnement. Le bon sens exige de mettre en place des mesures plus répressives, et donc plus dissuasives.
Avis défavorable.
Je comprends que le groupe Rassemblement national cherchera systématiquement à alourdir les peines.
Par souci de cohérence, le quantum retenu pour ce nouveau délit d'entrave à l'action de la commission départementale de vidéoprotection est le même que celui applicable au délit d'entrave à l'action de la CNIL – soit un an d'emprisonnement et 15 000 euros d'amende.
Permettez-moi de faire une remarque sur le défaitisme permanent du Rassemblement national.
La gestion de la finale de la Ligue des champions au Stade de France a certes été un flop. Mais la France est mondialement reconnue pour l'organisation des grands événements. Des stades sont remplis tous les week-ends, sans jamais le moindre problème. Un raté ne doit pas occulter l'excellence française en matière de gestion des événements – qu'il s'agisse du Tour de France, chaque année, de la Coupe du monde de football en 1998 ou bien des Championnats du monde d'athlétisme en 2003.
Alors stop au défaitisme ! Inscrivons-nous dans une démarche positive d'amélioration et cessons de croire que nous sommes les plus mauvais !
M. Balanant vit dans le passé.
Notre compétence était reconnue il y a bien longtemps. Tel n'est plus le cas aujourd'hui. Lisez la presse internationale et vous verrez que nous sommes la risée du monde, s'agissant tant de la finale de la Ligue des champions que de la gestion des violences dans les manifestations. Il est clair que le ministre de l'intérieur ne sait pas gérer les grands événements.
Il faut savoir se remettre en cause.
La France se fait davantage remarquer par ses réussites en la matière que par ses ratés.
En outre, vos considérations me semblent un peu éloignées du délit d'entrave à l'action de la commission départementale de vidéoprotection. Nous pourrons aborder le débat que vous avez lancé à l'occasion de l'examen de l'article 7, qui vise à se doter d'outils pour mieux gérer les grands événements – ce qui suscitera d'autres oppositions.
La commission rejette l'amendement.
Amendement CL424 de M. Jean-Pierre Cubertafon.
Dans un esprit de transparence, cet amendement de précision prévoit que l'avis de la CNIL sur le décret en Conseil d'État sera publié.
Votre amendement est satisfait par le dernier alinéa de l'article 31 de la loi « informatique et libertés », qui prévoit la publication de l'avis motivé de la CNIL.
Demande de retrait.
En effet, mais l'avis de la CNIL ne sera pas forcément publié en même temps que le décret en Conseil d'État. Nous déposerons en séance un amendement qui précise que la publication de l'avis de la CNIL intervient avant celle du décret en Conseil d'État.
La commission rejette l'amendement.
Elle adopte l'amendement rédactionnel CL442 de M. Guillaume Vuilletet, rapporteur.
La commission adopte l'article 6 modifié.
Après l'article 6
Amendement CL353 de Mme Sandra Regol.
Les débats sur la vidéosurveillance sont très idéologiques. Nous manquons de données précises, notamment sur le coût de cette technologie, sur son efficacité réelle et sur ses conséquences pour l'environnement.
Nous souhaitons donc que la CNIL remette un rapport sur ces questions.
Je précise que le rapport de la mission d'information sur les enjeux de l'utilisation d'images de sécurité dans le domaine public dans une finalité de lutte contre l'insécurité sera présenté d'ici la fin du mois de mars.
Lorsque nous demandons à d'autres de faire des rapports, nous nous privons d'une partie de nos prérogatives. C'est pourquoi je suis toujours réticent envers les amendements qui demandent des rapports. Il s'agit souvent davantage d'une occasion pour évoquer un sujet plutôt que d'obtenir le rapport lui-même – c'est peut-être le cas en l'occurrence.
La CNIL aura par ailleurs fort à faire ces prochains mois avec le contrôle de l'application de l'article 7.
Demande de retrait.
Mon corapporteur Philippe Gosselin et moi-même rendrons en effet le rapport de notre mission d'information à la fin du mois de mars.
Nous avons bien entendu auditionné la CNIL. Son rôle n'est pas de rédiger un rapport sur l'efficacité de la vidéoprotection en matière de prévention des infractions et de résolution des enquêtes – question sur laquelle notre mission d'information s'est penchée. La CNIL a pour mission d'inspecter les installations et de vérifier leur conformité aux différentes règles applicables, qu'elles soient européennes ou françaises.
J'attends avec impatience le rapport de la mission d'information, mais deux avis valent mieux qu'un. Je maintiens l'amendement.
La commission rejette l'amendement.
Article 7 : Expérimentation de l'usage de traitements algorithmiques couplés à des dispositifs de vidéoprotection et de captations d'images par voie aéroportée
Amendements de suppression CL242 de Mme Élisa Martin, CL82 de M. Jean-Félix Acquaviva, CL356 de Mme Sandra Regol et CL80 de M. Roger Vicot.
En matière de vidéosurveillance, l'enjeu réside davantage dans les modalités d'utilisation que dans la question de l'efficacité.
J'en viens à l'amendement. Nous proposons de supprimer l'article 7 car nous nous interrogeons sur le recours aux traitements algorithmiques des images captées par les systèmes de vidéosurveillance. Avec cet article, nous avons la preuve que ce projet de loi a un caractère non pas provisoire mais bien exploratoire. En témoignent les délais prévus pour entraîner le logiciel de manière effective, qui vont bien au-delà des JO.
La mesure est prévue pour les événements festifs, culturels et sportifs. Mais le Conseil d'État indique dans son avis qu'elle pourrait aussi concerner un certain nombre de manifestations à caractère revendicatif. Le périmètre retenu est très large. Cette méthode est particulièrement intrusive.
On peut se demander qui sera visé. Cela pourrait être des militants – y compris des supporters de football qui refusent la concentration capitalistique dans ce sport si populaire, et qui sont concernés par un certain nombre d'articles – mais aussi des gens qui vivent dans la rue.
On doit également s'interroger sur le rapport entre l'homme et la machine. Personne n'est en mesure de dire précisément comment la machine fonctionne lorsqu'elle détecte tel ou tel événement.
Ma collègue a bien résumé les inquiétudes du groupe Libertés, indépendants, outre-mer et territoires au sujet de l'article 7. C'est la raison pour laquelle nous demandons nous aussi sa suppression.
Nous considérons que nous ne sommes pas prêts techniquement et juridiquement – comme l'a d'ailleurs rappelé la CNIL – et que cet article ne présente pas de garanties éthiques suffisantes pour protéger nos droits fondamentaux et les libertés publiques.
L'article 7 propose de mettre en place une vidéosurveillance algorithmique à titre expérimental pendant les JO.
Permettez-moi tout d'abord de douter du caractère expérimental de cette mesure. Le dispositif s'étend en effet à toutes les manifestations sportives, culturelles et récréatives jusqu'en 2025, soit une période qui s'étend bien au-delà des Jeux. En outre, le champ d'application est très large et parfois sans lien avec les événements prévus au titre des JO.
J'en viens à la protection des données personnelles. L'identification des comportements ou événements dits anormaux repose sur l'entraînement de l'algorithme et suppose de recueillir au préalable un nombre considérable d'images. Même s'il est expressément prévu de respecter la durée de conservation des images utilisées pour l'apprentissage des traitements, elles pourront en fait toujours être générées de nouveau et ne seront donc jamais réellement éliminées. Cette réalité technique rend inopérante les dispositions prévues par l'article.
De plus, la rédaction de l'article manque de sincérité, puisqu'il est indiqué que l'État assurera le développement du traitement ou en confiera le soin à un tiers. Or les auditions ont montré que l'État est incapable de développer un tel algorithme – et les rédacteurs du texte le savent très bien.
C'est donc une entreprise privée qui le fournira, qu'elle soit française – comme par exemple Two-i ou Neuroo – ou étrangère – comme BriefCam. Cette dernière équipe déjà 200 villes en France, dans le plus grand flou juridique. Comme le sait le Gouvernement, son logiciel permet d'activer d'un clic la reconnaissance faciale et d'effacer toute trace de l'utilisation de cette technologie en cas de contrôle. Une fois encore les dispositions du projet de loi destinées à s'assurer que la reconnaissance faciale ne sera pas mise en œuvre sont totalement inopérantes.
Nous proposons également de supprimer l'article 7, pour les raisons qui viennent d'être évoquées. Nous présenterons un amendement visant à le réécrire complètement et vous verrez que nos propositions sont copieuses.
Nous ne pouvons pas théoriser le fait que ce que nous votons serait forcément inopérant. Nous faisons la loi, c'est-à-dire la règle commune. Nous ne pouvons pas constamment entretenir une forme de soupçon général consistant à dire que tout ce que nous allons voter ne servira à rien ou que nous avons l'intention d'en détourner l'objectif. Cela revient à nier notre propre rôle.
Le débat qui s'ouvre n'est pas médiocre. C'est la première fois que nous allons faire figurer dans un texte de loi l'utilisation de l'intelligence artificielle pour exploiter des images. Il faut se prémunir contre un certain nombre de risques, et nous pouvons avoir des divergences sur ce point.
Ces amendements de suppression témoignent d'une opposition de principe à l'utilisation des caméras augmentées même à titre expérimental, même en vue de l'organisation des JOP et même entourée de très nombreuses garanties. Celles-ci sont bien entendu légitimes et nécessaires, et elles ont été apportées à la suite des avis favorables rendus par la CNIL et par le Conseil d'État ainsi que lors de l'examen du texte au Sénat.
Nous allons avoir une discussion approfondie sur la centaine d'amendements déposés sur cet article. Je ne vais donc pas rentrer dès à présent dans le détail de chaque disposition. Je souhaite cependant rappeler quelques éléments qui me conduisent à donner un avis défavorable à ces amendements de suppression.
En premier lieu, les traitements algorithmiques dont il est question ont pour objet unique de détecter des événements prédéterminés, tels que des abandons de colis ou des mouvements de foules, afin de les signaler aux opérateurs des forces de l'ordre. L'article 7 interdit expressément toute technique d'identification biométrique ou de reconnaissance faciale. C'est un des apports de nos collègues sénateurs et, une fois encore, ce que nous votons a une portée.
Les agents, qui sont spécialement formés à cet effet – le texte le prévoit explicitement – visionneront en temps réel les images filmées par les caméras de vidéoprotection ou les caméras aéroportées sur lesquelles s'appliqueront ces traitements algorithmiques. Il s'agit donc d'une simple aide à la décision pour les forces de sécurité afin de repérer le plus tôt possible, et de la façon la plus précise possible, la survenue d'événements anormaux susceptibles de porter atteinte à la sécurité des personnes.
Cela va de soi mais je le précise : les systèmes d'intelligence artificielle ne prendront, par définition, aucune décision eux-mêmes.
À l'occasion des nombreuses et très riches auditions, les chercheurs ont généralement souligné que la physiologie de l'être humain ne lui permet pas de tout repérer, en particulier quand il s'agit de mouvements de foule. Des signes précurseurs permettent d'éviter ces derniers.
Les dispositifs prévus par ce texte ne seront mis en place que pour assurer la sécurité des grandes manifestations sportives, récréatives ou culturelles, sur les lieux concernés et dans les véhicules et emprises de transport public qui les desservent. Il s'agit donc de cibler des événements particuliers, et non de généraliser l'utilisation de ces traitements en tout temps et en tout lieu.
L'article 7 distingue quatre phases successives au cours desquelles la CNIL exercera un contrôle approfondi et permanent : le recours à ces traitements, leur développement, leur emploi sur le terrain et leur évaluation.
De nombreuses exigences sont prévues par le texte, qu'il s'agisse de l'encadrement de l'utilisation des données servant à entraîner les algorithmes, de l'analyse d'impact sur la protection des données qui doit être réalisée, de l'attestation de conformité qui devra être délivrée ou des modalités de la mise en œuvre de l'expérimentation.
Ce dispositif est prévu à titre expérimental. Je récuse le parti pris qui consiste, de façon un peu paradoxale, à craindre le toboggan vers une société orwellienne tout en déplorant avec certitude la prétendue inefficacité et inutilité des algorithmes.
Nous pourrons collectivement dresser le bilan de cet usage grâce à son évaluation objective et transpartisane. L'expérimentation prévue par l'article 7 ne doit pas préjuger de la pérennisation éventuelle de ces traitements : c'est pourquoi il convient d'en avancer le terme au 31 décembre 2024. J'ai déposé un amendement en ce sens.
Pour toutes ces raisons, les dispositions prévues par l'article 7 me semblent équilibrées, proportionnées à l'objectif poursuivi et assorties de très nombreuses garanties, indispensables à leur application. Je rendrai donc un avis défavorable.
Permettez-moi au passage de répondre à ceux qui doutent que nous aurions les moyens de développer ces outils dont la SNCF indiquait, il y a peu de temps, pouvoir disposer grâce aux laboratoires compétents dans ce domaine. Surtout, ces nouvelles technologies posent la question de notre souveraineté. Serons-nous capables, dans un avenir proche, de produire ces algorithmes et d'en contrôler l'usage ? Si ce n'est pas le cas, nous subirons des technologies élaborées par d'autres pays qui ne partagent pas nos valeurs. Il me semble donc préférable de contrôler et d'encadrer l'usage des nouvelles technologies plutôt que de les subir. La même difficulté se pose pour les outils que nous utilisons chaque jour, par exemple zoom. Je sais bien que nous sommes libres d'y avoir recours ou non mais, dès lors que ces produits sont à notre disposition, la question de leur usage se pose.
Certains d'entre vous mettent en cause l'efficacité des dispositions qui viseraient à interdire la reconnaissance faciale lors du traitement algorithmique des vidéos. Pourtant, c'est la gauche qui a souhaité prohiber, dans la loi pour une sécurité globale préservant les libertés, l'usage de la reconnaissance faciale. Nous saluons du reste cette avancée mais vous avez beau jeu, ensuite, de prétendre que cette disposition ne porte pas ses fruits.
Notre groupe s'opposera aux amendements de suppression car l'article est fondamental. Le rapporteur l'a rappelé, il est exclu que la vidéosurveillance algorithmique donne lieu à un traitement de reconnaissance faciale ou à un traitement des données biométriques. La ministre des sports, que nous avons auditionnée la semaine dernière, a réaffirmé que l'objectif était d'identifier les mouvements de foule, la densification de personnes à un endroit particulier, l'occupation de zones interdites, la présence de colis suspects, mais pas de procéder à une reconnaissance faciale ou biométrique.
Nous nous apprêtons à accueillir l'un des événements les plus populaires qui soit, dans des conditions exceptionnelles puisque la cérémonie d'ouverture se déroulera en plein Paris. Les athlètes défileront le long de la Seine, à proximité du public. Nous avons besoin d'outils particuliers pour assurer la sécurité. Imaginez que nous rencontrions une difficulté parce que nous n'aurions pas utilisé tous les outils dont nous disposions ! Nous devons d'autant moins hésiter à y recourir que leur usage est encadré par de nombreuses garanties et a recueilli un avis favorable du Conseil d'État et de la CNILCNIL.
Notre groupe n'a pas déposé d'amendement de suppression car nous voulions voir ce qui ressortirait de la discussion en commission avant de prendre une décision. Nous souhaitons voter ce projet de loi, malgré l'article 7 qui n'a pas sa place dans un texte olympique. Espérons que nous pourrons en améliorer la rédaction.
Il est écrit dans l'étude d'impact que le dispositif de l'article 7, prévu pour les Jeux, est susceptible d'être pérennisé. C'est donc à un véritable cheval de Troie que nous sommes confrontés.
Par ailleurs, aucune étude scientifique n'a démontré l'efficacité de cet outil.
Ensuite, l'adoption en l'état de cet article nous propulserait en tête des pays européens dans le domaine de la vidéosurveillance. Aucun de nos voisins n'a instauré un tel mécanisme de surveillance. Même la Serbie, qui avait voulu s'y risquer, a échoué.
Enfin, rien ne justifie que ce dispositif perdure jusqu'en juin 2025. La parenthèse pourrait être refermée après les Jeux olympiques. Surtout, il est impensable de confier, comme le texte l'y autorise, le traitement algorithmique à des sociétés privées. C'est contraire à tous les arguments défendus par le rapporteur au nom de la préservation de notre souveraineté.
Nos amendements ne sont pas encore prêts mais nous les déposerons en séance publique. Le groupe d'études Économie, sécurité et souveraineté numériques vous fera des propositions pour éviter que des entreprises étrangères, qui ne seraient pas soumises au règlement général sur la protection des données (RGPD) ni à notre législation, puissent remporter des marchés publics.
Le dispositif de l'article 7 est limité dans le temps mais nous discuterons de la nécessité de le conserver jusqu'en juin 2025, qui n'est peut-être pas avérée. En revanche, la question de son utilité ne se pose pas. Nous aurons besoin de recourir aux traitements algorithmiques mais rappelons que la plupart d'entre eux répondent simplement à des besoins statistiques. La majorité des traitements sont vectoriels : les images sont transformées en une suite d'objets géométriques, de points. Elles permettent, par exemple, de comprendre qu'une foule se densifie. Peu importe qui s'y trouve : le plus important est de prendre rapidement des mesures pour que les gens ne soient pas écrasés ou étouffés comme cela s'est produit récemment en Corée. Le principe est le même pour les bagages abandonnés. Le propriétaire d'un bagage, transformé en un vecteur mathématique, est associé à un objet. Si l'écart entre les deux se creuse, c'est qu'un bagage risque d'être abandonné, sur un quai de gare, ce qui imposera d'appeler une équipe d'intervention du déminage pour écarter tout risque d'explosion – et on perdra une heure.
Ces outils donnent de bons résultats pour ce qui concerne la partie vectorielle. En revanche, l'expérimentation sera nécessaire pour savoir si, s'agissant du reste, le dispositif est efficace ou non.
Soyons clairs : nous dénonçons l'inefficacité du dispositif pour protéger la population. En revanche nous ne doutons pas de ses qualités pour la surveiller ! À cet outil de contrôle, nous opposons le discernement des policiers, le renseignement d'origine humaine, la capacité du cerveau à accomplir plusieurs tâches simultanément.
En revanche, je suis d'accord avec vous, nous risquons de perdre de notre souveraineté, d'où l'intérêt à encourager la recherche publique française dans ce domaine, plutôt que de dilapider l'argent dans des entreprises étrangères. Se pose, dès lors, la question du rapport entre l'homme et la machine car nous ne maîtrisons pas complètement le fonctionnement des logiciels. Notre collègue manie les concepts avec aisance mais en réalité, nous ne savons pas comment un logiciel peut différencier un chien d'un chat. D'ailleurs, il suffit de changer les pixels pour que le chat, ou le chien, se transforme en éléphant. Comment pourrions-nous utiliser un outil que nous ne maîtrisons pas ?
Vous avez raison, c'est une histoire de petits points et de vecteurs. La ministre des sports est sans doute la personne qui l'explique le mieux : des points déterminent l'agencement du corps et les mouvements. Cette intelligence artificielle, loin de fonctionner comme une intelligence humaine, ne fait pas de différence entre un visage et un corps. Cet outil intrusif peut définir les caractéristiques de chaque être humain et il le fera de toute personne qui va passer dans son champ de vision car il a besoin d'être nourri pour mieux se vendre sur les marchés. Transformer chaque participant aux Jeux olympiques et paralympiques, chaque spectateur, en cobaye des algorithmes de BriefCam, pour ne citer que cette entreprise qui équipe de nombreuses villes françaises, tel est l'objet de l'article 7. La mission du législateur n'est pas de transformer la population en cobaye dans l'intérêt financier de quelques entreprises. Il est donc urgent de supprimer cet article, d'autant plus qu'il s'agit d'un cavalier puisqu'il vise à inscrire ces systèmes dans la loi. Je ne pense pas qu'il soit conforme à la Constitution de faire de la population un sujet d'expérimentation.
Seuls les amendements peuvent être considérés comme des cavaliers, non les articles d'un projet de loi puisque le Gouvernement est libre de soumettre à la représentation nationale toutes les mesure qu'il juge utiles.
L'accueil des grands événements, sportifs ou culturels, a toujours fourni l'occasion d'améliorer les infrastructures. En l'espèce, celles que nous devons développer sont virtuelles et l'article 7 tend à expérimenter des dispositifs dont nous aurons besoin. Les garanties offertes par la CNIL et le Conseil d'État, prévues à l'alinéa 34, permettent de déployer cette expérimentation dans le respect des libertés publiques, et d'en faire un outil de notre souveraineté. Nous n'avons pas à rougir des compétences des industriels et des laboratoires de recherche publique français. L'Inria (Institut national de recherche en sciences et technologies du numérique) est à la pointe dans le domaine de l'intelligence artificielle.
L'article 7 a prévu des garanties et nous avons les compétences pour développer le dispositif : donnons-nous les moyens de le déployer largement pour ne pas gaspiller les effectifs dans des opérations qui pourraient être conduites par les machines, parfois plus rapidement et efficacement.
Nous nous opposerons, par conséquent, à ces amendements.
La France a la chance d'accueillir un événement d'une ampleur internationale. Je devine à travers les propos des députés de la NUPES qu'ils n'aiment pas l'être humain ou du moins qu'ils ne lui font pas confiance. Il est caricatural de comparer nos concitoyens à des cobayes ! Au contraire, le dispositif prévu par le texte est au service de l'humain et il sera contrôlé par des êtres humains, les opérateurs de vidéosurveillance, chargés de vérifier que les informations collectées sont utilisables ou non. L'humain préviendra, le cas échéant, les forces de l'ordre. Ne soyez donc pas complotistes et n'allez pas imaginer un énorme Big Brother ! Pensez tout simplement à la sécurité des Français et des nombreux touristes qui assisteront à cet événement, dans une période marquée par la menace terroriste et l'action des groupes d'ultragauche qui n'hésitent pas à tout casser. Ne voyez donc pas le mal partout !
Notre groupe s'opposera, lui aussi, à ces amendements de suppression. Nous avons une grande responsabilité : accueillir et assurer la sécurité des Jeux olympiques et paralympiques. Nous disposons de moyens qui n'existaient pas il y a dix ou vingt ans. Devons-nous nous en priver ? Non, dès lors que nous en encadrons l'usage. C'est ce que prévoit l'article, du reste, au travers des dispositifs de formation, des mesures de contrôle et d'accompagnement par la CNIL, de l'association des parlementaires à l'évaluation de l'expérimentation. C'est en améliorant la détection des menaces que nous pourrons mieux protéger nos concitoyens. N'opposons pas le travail des forces de l'ordre à ces nouveaux outils. La surveillance doit être justifiée dans l'espace et le temps et nous devons en faire un usage éthique. Mais ce serait une erreur de rejeter par principe tout nouvel outil qui nous permettrait d'améliorer la sécurité des personnes.
La commission rejette les amendements.
Amendements CL61 de M. Roger Vicot et CL243 de Mme Élisa Martin (discussion commune)
Nous souhaitons tous que les Jeux Olympiques et Paralympiques se déroulent dans les meilleures conditions et que la sécurité des participants comme des spectateurs soit assurée. Cependant, nous ne savons toujours pas ce qu'il est prévu de surveiller par le dispositif de l'article 7. La définition d'un comportement anormal est en effet renvoyée à un futur décret.
L'amendement tend à réécrire l'article 7 pour limiter l'usage de cette nouvelle technologie à la seule détection des abandons de bagages, le cantonner à la seule période des jeux Olympiques et Paralympiques de 2024, recueillir, non un avis simple, mais un avis conforme, de la CNIL et des conseils municipaux des territoires concernés, exclure toute discrimination dans le traitement algorithmique, déléguer à l'État la responsabilité du traitement algorithmique, solliciter l'avis des associations de protection des données personnelles dans l'évaluation de l'expérimentation.
L'amendement tend à inscrire dans la loi l'interdiction de l'emploi de traitements algorithmiques sur les images collectées au moyen de systèmes de vidéoprotection. La France aurait ainsi une base solide pour discuter du prochain règlement européen. Ce n'est pas en se défiant de tout le monde que nous renforcerons la sécurité de nos concitoyens. Surtout, je ne voudrais pas vivre dans une telle société.
Bien évidemment, l'inscription de cette interdiction dans cette loi n'exonérerait pas l'État d'en contrôler le respect car, c'est de notoriété publique, les logiciels de reconnaissance faciale sont utilisés, a posteriori ou en temps réel. Faisons-en sorte que ces Jeux olympiques et paralympiques soient exemplaires et témoignent de l'attachement de notre pays au respect des libertés fondamentales, des droits humains et de la vie privée.
Avis défavorable aux deux amendements. Vous me pardonnerez, monsieur Bernalicis, de m'attarder sur l'amendement présenté par M. Vicot mais je me le dois en raison du travail considérable qu'il a réalisé. L'étude d'impact prévoit, en effet, de pérenniser le dispositif, en vertu du principe de l'expérimentation. Il ne s'agit pas d'un cheval de Troie au sens où le logiciel numérique serait caché. Au contraire, le Gouvernement affiche clairement sa volonté de tester un nouveau dispositif avant, le cas échéant, de le pérenniser, sous le contrôle du Parlement.
L'État restera maître des dispositifs auxquels il sera recouru. Des entreprises étrangères pourront être sollicitées si les résultats de l'appel d'offres ne sont pas satisfaisants mais, d'une part, rien ne serait moins sûr car de nombreuses entreprises françaises sont expertes en ce domaine et, d'autre part, le cas échéant, l'État, au travers de la CNIL et de l'ANSSI, l'Agence nationale de sécurité des systèmes d'information, conserverait le contrôle du dispositif.
Le décret sera pris après avis de la CNIL pour bien encadrer la mesure.
Enfin, n'ayez crainte, nous ne serons pas les champions d'Europe de l'algorithme. Beaucoup, parmi les représentants de la NUPES, citent l'Espagne en exemple. Or les Espagnols sont passés à la reconnaissance faciale. Peut-on parler d'atteinte aux données personnelles lorsque la reconnaissance faciale est utilisée pour définir un profil de personne plus susceptible qu'une autre d'être agressée ?
Nous avons entouré ce dispositif de nombreuses garanties, que le Sénat a renforcées. Je reconnais la qualité du travail réalisé par nos collègues socialistes mais je ne peux y souscrire.
Les inquiétudes sont légitimes et doivent être entendues. N'oublions pas, cependant, que ces algorithmes peuvent aussi être utilisés pour protéger la population. Par exemple, si l'on peut détecter en temps réel un mouvement de foule susceptible de dégénérer, on peut envoyer immédiatement des forces de l'ordre pour l'éviter.
Je pense qu'il vaut mieux accompagner qu'interdire. Je m'intéresse particulièrement à Midjourney, programme d'intelligence artificielle qui permet de créer des images très réalistes à partir de descriptions textuelles. Faut-il laisser faire, accompagner ou légiférer ? Je crois qu'il faut accompagner et offrir aux entreprises françaises la possibilité de suivre le mouvement. Si nous les entravons, nous perdrons notre souveraineté en ce domaine au profit d'entreprises d'autres pays qui n'auront pas les mêmes scrupules que nous.
L'article 7, loin d'être un cheval de Troie, nous donne les moyens de conserver notre souveraineté numérique en matière de traitement des données.
Nous voterons l'amendement de M. Vicot, notamment parce qu'il prévoit une mesure pour prévenir toute discrimination.
Surtout, nous ne saurons pas ce qui est visé avant la publication du décret. Ce n'est pas anodin. D'autre part, dans le cadre de ces événements festifs, culturels et sportifs, pourra être repéré et interdit ce qui relèvera de l'expression revendicative. Cette disposition remet en cause la liberté d'aller et venir mais aussi le droit d'expression. C'est un autre visage de la France que nous devrions montrer à l'occasion des Jeux qui sont censés témoigner de l'amitié entre les peuples.
M. Vicot n'a pas présenté cet amendement pour s'opposer à votre texte mais pour proposer un dispositif rassurant. Notre préoccupation démocratique s'exprime au travers des garanties très raisonnables que nous vous proposons d'ajouter, comme l'avis conforme de la CNIL. Certains mécanismes permettraient de lever l'opacité, qui est source d'inquiétude. Ainsi, nous savons tous que des représentants d'intérêt sont à l'origine de l'article 7. Ils devraient s'identifier auprès de la HATVP (Haute Autorité pour la transparence de la vie publique) pour que nous comprenions mieux comment a mûri la rédaction de cet article dans l'esprit du Gouvernement.
D'autre part, le Gouvernement pourrait-il s'engager à nous permettre de consulter le décret avant de le publier ? C'est une pratique courante dans d'autres domaines aussi sensibles.
Nous nous opposerons à l'amendement de Mme Martin qui vise à écarter l'article 7. Celui de M. Vicot est plus subtil et pourrait presque emporter notre adhésion, en particulier pour ce qui concerne le raccourcissement du délai d'expérimentation, s'il ne limitait pas le champ d'application des algorithmes au repérage des objets abandonnés, ce qui serait excessif. La priorité est d'aider les agents chargés de visionner des milliers d'images par minute, à détecter des mouvements de foule ou des agissements suspects. L'attentat perpétré à Nice témoigne de l'incapacité pour ces agents de traiter correctement les flux d'images. En revanche la décision appartiendra toujours à l'homme et jamais à la machine.
La gauche est traditionnellement opposée à la vidéosprotection mais des maires socialistes l'ont l'installée dans de grandes villes, comme Lyon, sans que cela ne pose de difficulté à qui que ce soit. Si nous ne disposons pas d'étude qui démontrerait l'efficacité du dispositif, les exemples, quant à eux, ne manquent pas. Ainsi, à Lyon, l'auteur de l'attentat de la rue Victor Hugo a pu être arrêté grâce à la vidéoprotection.
Ne confondons pas algorithme et intrusion dans la vie privée. L'algorithme n'est qu'un outil qui pourrait servir, en l'espèce, à détecter des mouvements de foule ou des bagages suspects. En aucun cas, il ne pourrait servir à repérer un individu grâce à la reconnaissance faciale.
Les Jeux olympiques et paralympiques sont un événement d'envergure internationale et nous devons nous donner les moyens d'en assurer la sécurité. En revanche, nous devrons limiter la durée de l'expérimentation et ne pas pérenniser le dispositif sans étude d'impact ou recul suffisant. C'est tout bonnement l'application du principe de proportionnalité. Nous aurions tort de ne pas développer cette technologie mais nous devons l'entourer de garanties. Le Conseil d'État nous a d'ailleurs mis en garde contre l'usage d'un tel outil qui pourrait porter atteinte aux libertés fondamentales.
La déclaration des intérêts est prévue à l'alinéa 19 de l'article mais peut-être souhaitez-vous aller plus loin. S'agissant de la consultation, il faudra en parler au Gouvernement. Mais revenons à la parabole de l'éléphant. L'objectif n'est pas, précisément, de savoir s'il s'agit d'un chat ou d'un chien car il n'y aura ni analyse des données biométriques, ni reconnaissance faciale. L'étude d'impact est très claire : le dispositif vise à détecter les mouvements de foule ou l'abandon d'un colis. Cela étant, il est possible que l'arrivée inopinée d'un éléphant soit considérée comme un événement anormal. Un signal serait dès lors envoyé aux agents qui sont derrière les écrans.
Je regrette que M. Acquaviva ait dû partir car j'aurais aimé lui parler de la commission d'enquête chargée de faire la lumière sur les dysfonctionnements au sein de l'administration pénitentiaire et de l'appareil judiciaire ayant conduit à l'assassinat d'un détenu à la maison centrale d'Arles. Il ressort des auditions que l'être humain s'habitue aux écrans et ne perçoit plus, au bout de plusieurs heures, l'anormalité d'un événement. Les chercheurs entendus nous ont confirmé ce phénomène, qui a aussi été constaté à Nice. L'algorithme permet de pointer ces événements pour permettre à l'agent de réagir.
Enfin, les Jeux olympiques et paralympiques s'étendent de juillet à septembre et il sera donc nécessaire de disposer de ces outils tout au long de la période car ces événements pourraient être des cibles potentielles.
La commission rejette successivement les amendements.
Amendements CL246 de M. Paul Vannier, amendements identiques CL333 de M. Jordan Guitton et CL326 de M. Julien Odoul, amendements CL62 de M. Roger Vicot, CL331 rectifié de M. Jordan Guitton, CL124 de M. Xavier Breton, CL99 de M. Jean-Félix Acquaviva, CL357 de Mme Sandra Regol, amendements identiques CL400 de M. Thomas Rudigoz et CL443 de M. Guillaume Vuilletet, amendements CL420 et CL421 de M. Jean-Pierre Cubertafon (discussion commune)
Ce projet de loi n'a pas de caractère expérimental. Au contraire, il s'appuie sur la popularité des Jeux olympiques, l'adhésion naturelle des peuples à ces rencontres sportives qui illustrent le dépassement de soi, pour renforcer l'acceptabilité sociale d'outils de surveillance. Dans ces conditions, nous proposons de limiter le recours à la vidéosurveillance automatisée pour qu'elle ne concerne que la période des Jeux olympiques et paralympiques. Voter contre cet amendement serait dévoiler vos véritables intentions : favoriser notamment les intérêts des industriels qui pourront revendre chèrement des technologies dont le fonctionnement aura été amélioré durant l'expérimentation.
Vous n'assumez pas votre position : l'expérimentation des caméras algorithmiques est prévue jusqu'au 30 juin 2025 alors que nous parlons des Jeux olympiques de 2024. Nous proposons de mettre un terme à celle-ci à la date du 15 septembre 2024, ce qui est un bon compromis, les Jeux s'achevant le 8 septembre.
Après avoir réalisé un bilan, la majorité pourra présenter un projet ou une proposition de loi sur l'utilisation de ces caméras. Nous en discuterons alors sereinement, puisque la sécurité de nombreux événements à venir impliquera une évolution des outils technologiques.
Ce dispositif suscite de nombreuses inquiétudes et doit être correctement encadré, notamment en termes de délai. La date du 30 juin 2025 est trop lointaine et peut nourrir bien des suspicions. Nous proposons donc de clore l'expérimentation à la fin des Jeux, le 8 septembre 2024.
Nous proposons quant à nous qu'elle se termine le 30 septembre 2024, durée suffisante pour avoir un retour d'expérience.
Nous proposons la même date.
L'expérimentation de la vidéosurveillance algorithmique (VSA), nous dit-on, est motivée par des raisons de sécurité. Il faut comprendre, en fait, que le fiasco de la finale de la Ligue des champions ne doit pas se reproduire. Or, selon différents rapports, celui-ci n'a rien à voir avec la vidéosurveillance et tout avec le manque de personnels et de formation à l'accueil ainsi qu'à l'impossibilité, pour les agents, de communiquer avec des gens qui ne parlent pas français.
Arrêtez donc de nous prendre pour des idiots en évoquant une expérimentation temporaire quand tout est fait pour l'organiser en amont et la poursuivre en aval des Jeux ! Sur un plan législatif, vous faites tout ce qu'il faut pour rendre possible la pérennisation d'une vieille marotte du ministre de l'intérieur. Elle n'a pas eu de succès jusqu'ici mais elle pourrait fort bien être introduite par la petite porte du ministère des sports.
Nous considérons également que cette durée – suivant la recommandation du Conseil d'État, d'ailleurs – est excessive. Néanmoins, nous avons besoin d'un retour d'expérience satisfaisant. Nous proposons donc qu'il soit mis un terme à l'expérimentation le 31 décembre 2024.
J'ai déposé un amendement identique et je demande le retrait des autres.
Si l'expérimentation doit être limitée au strict nécessaire, il importe de faire comprendre que nous ne nous situons pas dans la logique d'une pré-pérennisation.
De plus, la date du 31 décembre 2024 permet d'avoir un retour d'expérience et la remise du rapport d'évaluation doit être concomitante.
La date du début de l'expérimentation s'explique moins par des motifs législatifs qu'opérationnels, la nécessité d'appels d'offres et le temps de développement des différents outils – qui, à mon sens, ne seront pas disponibles avant la fin de la Coupe du monde de rugby. Il s'agit en effet d'assurer la sécurité de tous les événements importants qui se dérouleront durant cette période.
L'amendement CL420 a également le mérite de la concomitance entre la date de la fin de l'expérimentation, à l'alinéa 1 et, à l'alinéa 34, celle de la remise du rapport d'évaluation, le 31 décembre 2024. Il en tire en outre la conséquence rédactionnelle en substituant au mot « avant » le mot « après » à la deuxième phrase de l'alinéa 34.
Nous avons besoin d'étendre la durée de l'expérimentation après les Jeux olympiques puisque l'alinéa 34 dispose que la remise du rapport d'évaluation a lieu « après avis de la Commission nationale de l'informatique et des libertés » (CNIL). Le retour d'expérience – notamment des contrôles opérés par la CNIL pendant les Jeux olympiques – permettra de le nourrir.
L'amendement de repli CL421 propose la date du 31 mars 2025.
Hier soir, nous avons eu le même débat en commission des affaires culturelles, où je me suis d'ailleurs permis de défendre par anticipation la proposition de date formulée par le rapporteur. La commission des affaires culturelles a jugé qu'il s'agissait d'un bon compromis.
Nous avons besoin d'étendre suffisamment l'expérimentation pour qu'elle soit significative mais il ne fait aucun doute qu'une évaluation s'imposera et que nous pourrons alors débattre en toute connaissance de cause de la pérennisation ou non de la vidéoprotection augmentée.
Je suis réservé sur la modification de cette date car nous avons besoin du temps de l'évaluation. Je crains que, compte tenu des contrôles de la CNIL, la date du 31 décembre 2024 ne soit pas idoine et que nous ne disposions du rapport qu'après la date prévue. Comme toujours, le Conseil d'État a fait preuve de sagesse. Notre groupe est donc plutôt favorable au maintien de la date du 30 juin 2025.
Il n'est pas question de « couper la poire en deux » mais de savoir si la durée d'expérimentation – qui, de toute façon, excède celle des Jeux olympiques – vise ou non à favoriser l'acceptabilité sociale de la surveillance généralisée et de masse. Le vote de chacun sera révélateur.
La date du 31 décembre 2024 me paraît assez satisfaisante, néanmoins, l'organisation des Jeux olympiques en France étant connue depuis des années, pourquoi expérimenter les caméras algorithmiques à l'occasion d'un événement aussi important ? Une expérimentation n'aurait-elle pas été plus indiquée, par exemple, lors de la Coupe du monde de rugby ? Nous aurions eu ainsi le recul nécessaire pour discuter d'éventuels garde-fous et disposer d'une organisation clé en main pour les Jeux olympiques. J'ai le sentiment d'une grande impréparation.
Depuis la désignation de Paris, plusieurs compétitions internationales ont été organisées en France et nous aurions pu en effet procéder à des expérimentations. La semaine dernière, j'ai interrogé à ce propos la ministre des sports et je n'ai obtenu aucune réponse.
De plus, la concomitance soulève un problème de méthode : un retour d'expérience suppose la fin de l'expérience, le temps de l'évaluation n'étant pas celui de l'expérimentation. L'organisation des Jeux olympiques et paralympiques prime, même s'il est parfaitement compréhensible qu'il faille prendre en compte quelques semaines supplémentaires après leur terme.
Ce n'est pas la première fois qu'une expérimentation à grande échelle nous est proposée avant de disposer d'études nous permettant d'en mesurer les effets, comme nous l'avons constaté avec la vidéosurveillance – dont certaines études indépendantes montrent d'ailleurs qu'elle n'apporte pas grand-chose. J'ai hâte de savoir ce qu'il en sera pour la VSA…
Vous arguez qu'un algorithme repérant des points sur des corps est capable de détecter un mouvement de foule. Or, c'est scientifiquement impossible parce que, reposant sur des données vectorielles, il ne peut pas différencier les personnes…à moins d'une intégration de la reconnaissance faciale, ce qui relèverait d'un autre registre.
Enfin, comme vous le savez, monsieur le rapporteur, il n'y a pas d'amour : il n'y a que des preuves d'amour. Prouvez-nous que ce dispositif est temporaire en acceptant nos amendements !
Le mot « expérimentation » peut en effet faire peur mais l'idée, c'est d'« entraîner » les algorithmes avant les Jeux olympiques afin de vérifier leur pertinence. D'où leur expérimentation à l'occasion de la Coupe du monde de rugby et du Triathlon de Paris, qui aura lieu le long de la Seine, comme la cérémonie d'ouverture des Jeux.
De plus, les algorithmes sont parfaitement à même d'attribuer un point à un corps pour reconnaître le risque que présenterait une file d'attente ou l'agrégation d'une foule, comme le prouve leur utilisation dans un certain nombre d'aéroports européens ou de parcs d'attraction. Nous pourrons ainsi fluidifier les sorties à l'occasion de tel ou tel événement afin d'éviter des accidents, comme celui qui s'est produit il y a quelques mois en Corée du Sud. Il n'est aucunement question de reconnaissance faciale.
Lors de son audition, M. Jamal Atif, coordinateur du défi Intelligence artificielle du Centre national de la recherche scientifique (CNRS), s'est montré catégorique : ces outils permettent de voir ce que l'œil humain ne peut pas soupçonner, dont les mouvements de foule.
Sur les preuves d'amour, je pourrais presque dire que la date du 31 décembre 2024 est en soi un rendez-vous amoureux ! La pérennisation n'est pas actée. Nous vérifierons simplement si l'utilisation de technologies déjà robustes favorise l'aide à la décision des forces de l'ordre.
Enfin, si vous jugez qu'une expérimentation est susceptible de favoriser l'acceptabilité sociale d'une technologie, c'est peut-être parce qu'elle peut se montrer concluante. L'expérimentation suppose des règles dérogatoires au droit commun afin de vérifier l'efficacité d'un dispositif et, éventuellement, de convaincre la représentation nationale et la population que celui-ci est utile à la nation.
La commission rejette successivement les amendements CL246, CL333, CL326, CL62, CL331 rectifié, CL124, CL99 et CL357.
Elle adopte les amendements identiques CL400 et CL443.
En conséquence, les amendements CL420 et CL421 tombent.
Amendements identiques CL328 de M. Julien Odoul et CL535 de M. Jordan Guitton, amendements CL358 de Mme Sandra Regol et CL252 de M. Paul Vannier (discussion commune).
Les amendements CL328 et CL535 visent à limiter l'expérimentation aux seuls événements des Jeux olympiques et paralympiques.
Non seulement l'expérimentation est trop étendue dans le temps mais les manifestations couvertes sont aussi beaucoup trop vastes puisque le texte mentionne des « manifestations sportives, récréatives ou culturelles ». Des drones armés de cet algorithme survoleront-ils le festival Rock en Seine, la Techno Parade ou la Marche des fiertés ? Quels comportements, alors, seront-ils considérés comme anormaux ?
Le danger de discrimination est réel et ce dispositif constitue le premier pas vers une société de surveillance généralisée. Nous proposons donc de réduire le champ d'application de la vidéosurveillance algorithmique aux seules manifestations sportives directement liées aux Jeux.
Nous pensions tous parler de fêtes et de jeux et il n'est question que de sécurité, ce qui est fort dommageable.
L'amendement de repli CL252 vise à supprimer la mention des manifestations « récréatives ou culturelles », ce qui ne signifie bien évidemment pas que nous voyions d'un bon œil le maintien de la mention des manifestations « sportives ».
Que voulez-vous donc faire ? Vous venez de nous faire la grâce de six mois : tant mieux, mais ce texte n'en manifeste pas moins une dérive. Se justifie-t-elle parce qu'une limitation du dispositif aux seules manifestations sportives ne permettrait pas de viser un panel suffisamment large de la population ? Nous voulons en savoir plus sur vos motivations en matière de surveillance totale.
Nous n'avons pas fait grâce de six mois : la date du 31 décembre 2024 s'imposait pour satisfaire deux objectifs, ceux de l'expérimentation et d'une évaluation intrinsèque.
Je le répète, il n'y aura ni reconnaissance faciale, ni études biométriques. Je ne laisserai pas dire que ce que nous disons et votons ne sert à rien.
Nous voulons assurer la sécurité des Jeux olympiques et paralympiques, faire en sorte qu'aucune attaque terroriste ne puisse avoir lieu et qu'aucun incident ne se produise à la suite de mouvements de foule durant tous les événements qui se dérouleront pendant cette période. Il ne faut pas prendre les apprentis terroristes pour des benêts : s'ils ne peuvent pas nuire sur un stade olympique, ils chercheront à le faire ailleurs.
Les algorithmes ont besoin d'un apprentissage à partir de bases de données d'images de foules – et non d'individus – afin de pouvoir signaler aux forces de l'ordre des événements anormaux. Il n'y a aucune ambiguïté.
Des manifestations récréatives et culturelles se dérouleront au moment des Jeux olympiques. Le parc de La Villette, notamment, accueillera des fan zone, donc, des familles, dans un cadre qui ressemblera à celui d'un concert en plein air. Les algorithmes pourront y « apprendre », ce que permettront également la Coupe du monde de rugby et le Triathlon de Paris. Les données récupérées permettront d'éliminer les bruits de fond et nous saurons quelle caméra filme quel endroit. L'efficacité, ainsi, sera maximale lors des Jeux.
Des décrets spécifiques concerneront chacune des expérimentations parce que nous avons besoin de savoir ce qui peut se passer au parc de La Villette ou au Stade de France pour pouvoir ensuite décider de ce qui sera le plus optimal. Il n'est pas question de reconnaissance faciale ou d'un contrôle de la Marche des fiertés !
Je ne sais pas si je suis une intelligence artificielle mais, moi aussi, j'apprends.
On nous a déjà fait le coup des dates et des expérimentations. Ainsi, une loi antiterroriste a créé un dispositif de boîtes noires permettant de capter des données et des nœuds de connexion, avec comme garantie démocratique une clause de revoyure en 2020. Mais il est apparu que le dispositif n'avait pas marché. Un rapport dont Le Monde a fait état a même précisé que la surveillance de masse et la captation de données n'avaient permis d'atteindre aucun objectif opérationnel. Qu'à cela ne tienne : un autre texte a supprimé toute référence à un terme de l'expérimentation et, pire encore, est allé plus loin au prétexte que les moyens de surveillance étaient finalement jugés insuffisants.
L'avenir du texte dont nous discutons est cousu de fil blanc : il y aura surenchérissement, avec les données biométriques et la reconnaissance faciale. Les collègues qui se font berner par des garanties qui n'en sont pas devraient réagir ! Les libertés fondamentales sont consubstantielles à la République !
Je comprends les interrogations qui se font jour en termes de libertés publiques et individuelles mais ne laissons pas prospérer l'idée selon laquelle l'État comploterait contre les citoyens pour instaurer une société de surveillance.
S'il faut profiter de ce grand événement pour faire des expérimentations, il convient surtout d'assurer la sécurité de nos concitoyens. Donnons-nous-en les moyens, avec les garde-fous et la proportionnalité qui s'imposent !
Il faut certes tenir compte des exigences de sécurité mais, tout autant, de liberté, faute de quoi nous nous retrouverons bientôt en Chine. Je suis un peu surpris du déséquilibre des argumentations.
La commission rejette successivement les amendements.
Amendements CL123 de M. Xavier Breton, CL83 et CL81 de M. Jean-Félix Acquaviva (discussion commune).
Nous sommes confrontés à une expérimentation inédite qui, selon le Conseil d'État, est « susceptible de mettre en cause la protection de la vie privée et d'autres droits et libertés fondamentales, tels que la liberté d'aller et venir et les libertés d'opinion et de manifestation ».
L'exigence de sécurité repose sur deux principes : la nécessité et la proportionnalité. Le texte retient deux critères : l'ampleur et les circonstances de l'événement. Cet amendement vise à en ajouter une autre : son caractère exceptionnel.
L'amendement CL83 vise à préciser que l'usage de la vidéoprotection intelligente sera fondé sur l'ampleur de la fréquentation des événements ciblés et l'amendement CL81 sur le caractère exceptionnel de cette ampleur, la CNIL recommandant de se « prémunir de tout phénomène d'accoutumance et de banalisation de ces technologies de plus en plus intrusives ».
Avis défavorable aux amendements CL123 et CL81, le caractère exceptionnel de l'événement ne me paraissant pas opératoire. Avis favorable, en revanche, à l'amendement CL83, qui apporte une précision utile.
La sémantique demeure vague : le festival d'Avignon pourrait être considéré comme ayant un caractère exceptionnel.
Nous contestons également l'utilisation et l'efficacité de ces dispositifs en raison du caractère imprédictible des événements graves, les attentats terroristes que nous avons connus ayant été menés à partir de conditions opérationnelles différentes. Ce texte ouvre la voie à une application de ces dispositifs à quantité d'événements.
La commission rejette l'amendement CL123.
Elle adopte l'amendement CL83.
Elle rejette l'amendement CL81.
Amendement CL122 de M. Xavier Breton.
Les manifestations visées à l'alinéa 1 « par leur ampleur ou leurs circonstances » doivent l'être en raison de leur ampleur « et » de leurs circonstances.
Cette condition cumulative serait excessivement restrictive, ce qui semble être le but recherché. Il se peut que des événements d'une ampleur relative – par exemple, certains festivals ou derbys de football – présentent des circonstances particulières les exposant à un risque sécuritaire réel. Avis défavorable.
Je crains que, malheureusement, cela ne change rien, les termes employés étant beaucoup trop vagues.
La commission rejette l'amendement.
La commission adopte l'amendement rédactionnel CL444 de M. Guillaume Vuilletet, rapporteur.
Amendement CL244 de Mme Élisa Martin.
Le Gouvernement doit assumer qu'il ne s'agit pas tant de dispositifs de vidéoprotection que de vidéosurveillance. Personne ne sera protégé mais tout le monde sera surveillé.
Je reste attaché au terme de vidéoprotection : cela ne vous surprendra pas. La SNCF, qui a testé des dispositifs de ce type, a obtenu des résultats probants. Je demanderai que l'on vous transmette ces éléments d'ici à la séance.
Nous soutenons que la vidéosurveillance ne protège pas. Elle surveille, incontestablement. Elle permet, à la marge, de réprimer des infractions qui, de toute façon, ont été commises, ce qui confirme qu'elle ne les empêche pas. Lorsqu'il s'agit d'identifier les auteurs d'infractions, elle n'est pas plus efficace que les techniques d'enquête classiques – dans 1,3 % des cas. La police technique et scientifique fait des choses merveilleuses, notamment à partir des odeurs, qu'une caméra ne peut évidemment pas faire. Il faudrait commencer par donner davantage de moyens à la police judiciaire, car c'est ce qui fonctionne le mieux.
Je vais prendre aussi les choses à l'envers. Gérald Darmanin dit régulièrement que la France est à feu et à sang, que la délinquance augmente et qu'il faut agir. Il reconnaît donc lui-même que le nombre d'infractions augmente. Or il n'y a jamais eu autant de caméras dites de vidéoprotection qu'aujourd'hui. Je fais donc l'hypothèse qu'il n'y a peut-être pas de corrélation entre la vidéosurveillance et la diminution du nombre d'infractions. Les caméras ne protègent pas, au sens littéral du terme. Ce qui est sûr, en revanche, c'est qu'elles coûtent un pognon de dingue.
Afin de trancher ce débat une fois pour toutes, il convient peut-être de revenir aux définitions que donne la CNIL. Les dispositifs de vidéoprotection filment la voie publique et les lieux ouverts au public : rue, gare, centre commercial, zone marchande, piscine, etc. Les dispositifs de vidéosurveillance filment, quant à eux, les lieux non ouverts au public : réserves d'un magasin, entrepôts, copropriétés fermées, etc. Tous les amendements qui tendent à remplacer le terme « vidéoprotection » par celui de « vidéosurveillance » imposeraient donc, en réalité, de changer notre corpus juridique, notamment le code de la sécurité intérieure et le RGPD. L'article 7 traite bien de dispositifs de vidéoprotection, et non de vidéosurveillance.
En réalité, c'est en dehors du champ des caméras que la délinquance augmente : c'est essentiellement au sein de la famille. Ce sont les chiffres des violences intrafamiliales qui ont explosé.
Monsieur Bernalicis, l'insécurité augmente : sur ce point, je suis d'accord avec vous et il est vrai que le ministre de l'intérieur ne fait pas son travail. Mais je ne peux pas vous laisser dire que la vidéosurveillance ne sert à rien.
Le problème, c'est qu'on est dans une époque de communication à outrance et que certaines mairies disent avoir mis des moyens considérables dans la vidéosurveillance, alors qu'elles n'en ont pas mis assez. Celles qui ont effectivement mis les moyens obtiennent d'excellents résultats.
Dans ma circonscription, la ville de Nîmes se présente comme l'une des premières villes de France en matière de vidéosurveillance. En réalité, si l'on rapporte le nombre de caméras à la superficie de la ville ou au nombre d'habitants, elle en a très peu. C'est ce qui explique que l'insécurité augmente à Nîmes, année après année. À l'autre extrémité de ma circonscription, la ville de Beaucaire a, quant à elle, consacré des moyens considérables à la vidéosurveillance. On y observe une baisse spectaculaire de la délinquance, qui a d'ailleurs été saluée par l'État.
Comme vous, nous pensons que le terme de « vidéoprotection » n'est pas le bon, dans la mesure où ces caméras ne protègent pas, mais surveillent. N'oublions pas, toutefois, que derrière ces caméras, il y a des humains, et que ce sont eux qui protègent la population.
J'insiste sur le fait que ces caméras ont bien vocation à protéger.
Monsieur Bernalicis, allez au bout de votre raisonnement. Ce que l'on reproche souvent à ces caméras de vidéoprotection, c'est de déplacer la délinquance. Mais, en l'occurrence, on cherche à éviter que des gens ne viennent troubler le bon déroulement des Jeux olympiques. S'ils veulent le faire, ils se rendront bien sur les lieux de ces manifestations, pas ailleurs…
Nous parlons de caméras qui, pour l'essentiel, sont déjà installées et qui vont faire l'objet d'un traitement algorithmique pour repérer des situations anormales. Je répète qu'il n'y aura pas de reconnaissance faciale, puisque je vois bien que vous essayez de distiller l'idée que c'est ce vers quoi nous allons. Il n'y aura ni reconnaissance faciale, ni analyse biométrique : tout est parfaitement cadré. Ces dispositions s'appliqueront dans un périmètre géographique bien délimité, avec un objectif précis : garantir le bon déroulement des Jeux olympiques et paralympiques.
La commission rejette l'amendement.
Amendements identiques CL100 de M. Jean-Félix Acquaviva et CL191 de Mme Lisa Belluco.
Nous proposons d'exclure les drones de cette expérimentation : elle suscite déjà des inquiétudes et il convient de ne pas aller trop loin en utilisant une technologie encore mal connue du grand public.
Nous nous opposons à l'ensemble de cette expérimentation et, a fortiori, à la captation par des drones d'images et de données de vidéosurveillance. Les drones peuvent capter énormément de données, on ne sait pas s'il y aura assez d'humains pour les traiter et on ne sait toujours pas, non plus, ce qui en sera fait.
Lors de l'examen de la loi « sécurité globale » et de celle relative à la responsabilité pénale et à la sécurité intérieure, on a longuement débattu de l'usage des drones, et le Conseil constitutionnel a validé leur usage.
Le but d'une expérimentation, c'est de voir si des règles dérogatoires au droit satisfont davantage l'intérêt général et si elles mériteraient, à ce titre, d'être pérennisées. Ce terme ne renvoie en aucun cas à l'idée d'une expérience en laboratoire.
L'objectif de cet article est d'assurer la sécurité d'un événement majeur, la tenue des Jeux olympiques et paralympiques, et nous devons, pour ce faire, utiliser tous les outils à notre disposition. Si des caméras aéroportées parviennent, grâce à un algorithme, à repérer des situations anormales, comme des mouvements de foule ou des colis abandonnés – ce qu'une caméra fixe ne peut pas toujours faire –, il n'y a pas de raison de s'en priver. Avis défavorable.
Vous voulez mettre des drones partout, mais cela pose un certain nombre de problèmes concrets. À Paris, les drones se font régulièrement attaquer par des goélands, or votre texte ne dit rien à ce sujet. Faut-il mettre des caméras sur les drones pour filmer l'éventuelle attaque d'un goéland, voire pour l'anticiper ? A-t-on un algorithme pour cela ?
Ce que je peux vous dire, c'est qu'il n'y aura pas de reconnaissance faciale pour identifier le goéland qui aura attaqué le drone.
La commission rejette les amendements.
Amendement CL247 de M. Paul Vannier, amendement CL359 de Mme Sandra Regol, amendements identiques CL125 de M. Xavier Breton et CL84 de M. Jean-Félix Acquaviva (discussion commune).
Rien ne justifie que cette expérimentation soit étendue massivement à d'autres lieux que ceux où se dérouleront les épreuves des Jeux olympiques. S'il doit y avoir une surveillance – ce à quoi nous nous opposons par principe –, nous demandons au moins qu'elle se concentre sur les sites eux-mêmes et qu'elle ne s'étende pas à leurs « abords ».
Nous ne vous faisons pas de procès d'intention, mais il est évident que l'introduction de ces nouvelles dispositions risque de conduire à la reconnaissance faciale. Nous reconnaissons que ce n'est pas le cas pour l'instant, mais vous créez les conditions matérielles et technologiques pour que ce soit possible demain, et cela nous inquiète.
La rédaction de l'article 7, qui autorise l'emploi de la vidéosurveillance algorithmique « aux abords » des lieux accueillant des manifestations, nous paraît trop vague. Nous proposons de préciser qu'il s'agit d'un « périmètre de 500 mètres autour de ces lieux », ce qui paraît amplement suffisant.
Nous nous opposons également à ce que des véhicules et emprises de transport public soient équipés de caméras de vidéosurveillance algorithmique et à ce que les services internes de sécurité de la SNCF et de la Régie autonomie des transports parisiens puissent en faire usage : ces dispositions paraissent disproportionnées, compte tenu du danger que représente cette technologie.
L'utilisation de solutions d'intelligence artificielle doit être strictement encadrée, notamment leur périmètre d'application. La notion d'« abords » étant beaucoup trop vague, je propose de préciser qu'il s'agit des abords « immédiats ».
Je souscris à ce qui vient d'être dit et j'ajoute que le Gouvernement a lui-même utilisé l'expression « abords immédiats » à l'article 8.
C'est un arrêté préfectoral qui fixera ce périmètre et je crains que les précisions que vous proposez d'apporter ne compliquent les choses. Avis défavorable.
La commission rejette successivement les amendements.
La commission adopte l'amendement rédactionnel CL445 de M. Guillaume Vuilletet, rapporteur.
Amendements CL63 de M. Roger Vicot et CL250 de M. Paul Vannier (discussion commune).
Il nous paraît essentiel d'identifier précisément ce qui fera l'objet d'une surveillance. La rédaction qui nous vient du Sénat est très floue, puisqu'elle vise des « événements prédéterminés susceptibles de présenter ou de révéler ces risques ». J'ajoute que l'algorithme sera plus efficace si on lui confie la détection d'un seul type de comportement ; si on les multiplie, on multiplie aussi les risques d'erreurs. Il me paraît donc essentiel de limiter l'usage de cette technologie à la détection des bagages abandonnés.
Nous demandons qu'un décret en Conseil d'État précise la nature des « événements prédéterminés » dont il est question à l'article 7.
Une haute fonctionnaire, que nous avons interrogée à ce sujet, nous a dit que si l'on explicite ce que l'on entend par « événements prédéterminés », les méchants les connaîtront : c'est assez cocasse ! Du reste, qu'ils soient déterminés par un décret en Conseil d'État ne changera rien à leur degré de publicité. Ce sera exactement la même chose s'il s'agit d'un simple décret– ce qui, je le répète, pose un sérieux problème démocratique.
Monsieur Vicot, je pense que la surveillance ne se limitera pas à la détection des bagages abandonnés ; elle pourrait s'étendre à la détection des mouvements de foule. Laissons la CNIL faire son travail et n'outrepassons pas notre fonction.
Madame Martin, je vous rappelle que ces événements prédéterminés seront précisés par un décret pris après avis de la CNIL, comme le prévoient expressément les alinéas 8 et 9.
Il s'agit d'un décret simple : dans son avis rendu sur le projet de loi, le Conseil d'État n'a pas proposé qu'un décret exigeant sa consultation obligatoire définisse les caractéristiques précises de ces « événements prédéterminés ». Le pouvoir réglementaire doit pouvoir ajuster de façon réactive le cadre juridique applicable, la CNIL étant consultée à cette fin. Et, le cas échéant, cet acte réglementaire sera bien sûr susceptible de recours devant la juridiction administrative. Avis défavorable.
Si nous demandons un décret en Conseil d'État, c'est pour avoir le niveau de garantie maximal. Mais c'est aussi parce qu'il nous semble essentiel que les choses soient publiques : les gens ont le droit de savoir ce qui sera surveillé, et comment. Savoir à quel type de sanction on s'expose est un principe fondamental de notre droit pénal ; c'est une garantie démocratique essentielle dans un État de droit. C'est pourquoi il importe de savoir ce que l'on entend par « événements prédéterminés. »
Il nous a paru un peu étrange, au cours de nos auditions, d'entendre des directeurs d'administration centrale nous expliquer qu'il ne faudrait pas que cela se sache trop, parce que les méchants voyous, s'ils savent ce qu'on surveille, ne vont pas commettre leurs infractions. Il me semble que l'objectif est précisément d'éviter les incidents ! À tout prendre, il vaut mieux qu'ils sachent ce qu'ils n'ont pas le droit de faire !
On ne peut pas se contenter d'un avis de la CNIL. Depuis le début de ces débats, on fait comme si tout le monde s'entendait sur ce qu'est un comportement anormal. Or ce qui est anormal pour vous ne l'est peut-être pas pour moi, et inversement.
La commission rejette successivement les amendements.
Amendement CL126 de M. Xavier Breton.
L'alinéa 9 prévoit que le décret pris après avis de la CNIL précisera les « conditions d'habilitation des agents pouvant accéder aux résultats des traitements ». Par coordination, je propose de préciser que seuls des « agents individuellement désignés et dûment habilités » pourront, au sein des services autorisés, utiliser des traitements algorithmiques.
Ce sont bien des services, et non les agents qui les composent, qui pourront être autorisés à utiliser des traitements algorithmiques. Au sein de ces services, seuls les agents habilités et formés pourront accéder aux signalements générés par ces traitements, comme le prévoit l'alinéa 9. Avis défavorable.
La commission rejette l'amendement.
Amendement CL128 de M. Xavier Breton.
Je propose d'indiquer clairement que « cette expérimentation ne saurait en aucun cas préjuger d'une pérennisation de ces traitements ». Il importe que l'on ait un retour d'expérience avant d'envisager son éventuelle pérennisation.
Je répète qu'il n'y aura aucune automaticité et que ce dispositif, avant son éventuelle pérennisation, devra être évalué. C'est bien pour cela que nous avons prévu qu'il prenne fin au 31 décembre 2024. Méfions-nous des lois bavardes. Je vous invite à retirer votre amendement.
Nous savons tous ce qui va se passer : à la fin de l'expérimentation, on va dire qu'il faut la poursuivre et la pérenniser.
Si les Jeux olympiques se passent bien, on dira que c'est grâce à la vidéosurveillance algorithmique intelligente. Si un incident survient, on dira que c'est parce qu'on n'est pas allé assez loin et qu'on n'a pas mis assez de caméras. Pile, je gagne ; face, tu perds !
Quoi qu'il arrive, on nous expliquera qu'il faut davantage de vidéosurveillance, à moins qu'un sursaut se produise. Il est encore temps de prendre conscience qu'il n'y a pas que l'intelligence artificielle et qu'on peut aussi faire preuve d'intelligence humaine lorsqu'on élabore la loi.
L'amendement est retiré.
Amendement CL360 de Mme Sandra Regol.
Nous proposons de préciser clairement que les traitements algorithmiques ne pourront pas être utilisés dans le cadre de manifestations à caractère politique – par exemple contre la réforme des retraites ou à l'occasion du 1er mai.
Je crois que l'ajout que vous proposez irait à l'encontre de ce que vous voulez faire. L'alinéa 1er précise que seules les manifestations sportives, récréatives ou culturelles sont concernées : votre amendement est donc satisfait, puisqu'il n'est pas fait mention des manifestations politiques. Si l'on dit que les manifestations à caractère politique doivent être exclues du dispositif, cela signifie, a contrario, que tous les autres types de manifestation peuvent être concernés. Procéder ainsi, c'est prendre le risque de créer des angles morts. Le texte, dans sa rédaction actuelle, est parfaitement clair.
Nous avons eu le même débat hier en commission des affaires culturelles à propos d'un amendement de M. Paul Vannier et j'ai eu la même argumentation que le rapporteur : commencer à faire une liste à la Prévert, c'est prendre le risque d'avoir des trous dans la raquette. La rédaction actuelle exclut de fait du dispositif toutes les manifestations qui ne sont ni sportives, ni récréatives, ni culturelles. Sur la base de cette explication de bon sens et juridiquement imparable, notre collègue a retiré son amendement.
Une manifestation contre les Jeux olympiques, est-ce une manifestation politique ou une manifestation à caractère sportif ? Vous voyez bien, avec cet exemple, qu'on peut facilement glisser d'un type à un autre... Il nous semble essentiel de mentionner explicitement les manifestations politiques. J'accepterais tout à fait que mon amendement soit rectifié et que l'on y ajoute les mots « notamment », « dont » ou toute autre conjonction de votre choix, mais il importe de préciser que jamais ces dispositions ne seront utilisées contre des activistes, des personnes qui militent, des gens qui manifestent. Le droit doit être précis.
Je maintiens que la mention que vous souhaitez ajouter introduirait plus de risques qu'elle ne donnerait de garanties. Je peux vous affirmer qu'une manifestation contre les Jeux olympiques n'est pas une manifestation sportive. En revanche, je ne suis pas certain qu'il s'agisse d'une manifestation politique : on pourrait en tout cas le contester. Je rappelle enfin qu'il n'est pas question d'incriminer des militants, puisque ce texte n'introduit ni reconnaissance faciale, ni analyse biométrique.
La commission rejette l'amendement.
Amendements CL446 de M. Guillaume Vuilletet et CL413 de M. Philippe Latombe.
S'il est utile de prévoir que l'entraînement des traitements algorithmiques est soumis au RGPD et à la loi du 6 janvier 1978, il convient de préciser que ce sont ces traitements, lors de la phase de conception, qui sont assujettis au respect de ces dispositions.
L'article 6 du projet de loi prévoit déjà de soumettre les systèmes de vidéoprotection, dont les images captées peuvent être utilisées à des fins d'apprentissage des traitements algorithmiques, au respect du RGPD et de la loi du 6 janvier 1978, ces images étant assimilées à des données à caractère personnel.
Il est donc proposé de reformuler cet alinéa pour indiquer que les traitements algorithmiques sont soumis au RGPD et à la loi du 6 janvier 1978, y compris pendant leur conception.
Cette précision est bienvenue.
Mon amendement concerne le droit d'opposition. Il s'agit d'un droit relatif, auquel seuls le législateur et le pouvoir réglementaire peuvent déroger. Si nous ne précisons pas dans la loi ce que nous prévoyons à ce sujet, nous confions de fait au pouvoir réglementaire la responsabilité de trancher cette question.
Avec cet amendement d'appel, qui a surtout vocation à ouvrir la discussion, je propose de préciser clairement que le droit d'opposition ne s'appliquera pas. Les députés du groupe Démocrate estiment qu'il revient plutôt au pouvoir administratif de déroger au droit d'opposition, et qu'il doit le faire au cas par cas. Si nous suspendons le droit d'opposition dans la loi, nous devrons le faire de façon absolue, pour toute la période considérée, et pour l'ensemble des images qui seront prises : ce serait donc beaucoup trop attentatoire aux libertés.
Cet amendement d'appel, je le répète, vise surtout à ouvrir la discussion, pour que le rapporteur et le Gouvernement nous disent quelle est leur position.
Je vous invite à retirer votre amendement : il faudra avoir cette discussion avec le Gouvernement, en séance publique.
L'article 7 est soumis au respect des règles du RGPD et à la loi « informatique et libertés » du 6 janvier 1978. L'article 23 du RGPD, combiné aux articles 48 et 56 de la loi de 1978, prévoit déjà une possibilité d'aménager ou de déroger au droit d'opposition par voie réglementaire : c'est ce que compte faire le Gouvernement, au travers d'un décret. Il n'est donc pas nécessaire d'inscrire cela dans la loi.
L'article 34 de la Constitution nous oblige, dès que nous touchons à des libertés publiques, à exprimer clairement notre choix. Il me paraît souhaitable, je le répète, que ce soit le pouvoir réglementaire qui se prononce à ce sujet, mais il importe que les ministres, en séance, nous disent dans quels cas ils accepteraient que l'on touche au droit d'opposition, et dans quels cas ils n'y seraient pas favorables.
Je retire mon amendement, en attendant d'y revenir en séance.
Les contre-pouvoirs sont une nécessité. Toute décision doit pouvoir faire l'objet d'un recours. Ce que propose notre collègue, c'est de supprimer le droit d'opposition des citoyens en cas d'utilisation de leur image. Cette proposition est très dangereuse ; elle est contraire aux principes de notre système démocratique.
Je suis assez choquée que l'on puisse aller jusque-là, sachant qu'on supprime par ailleurs le droit de recours de la population, le droit de recours associatif et le droit d'information. Cet amendement illustre les dérives que pourrait causer ce texte, malgré le RGPD – qui a constitué, je le rappelle, une victoire des écologistes à l'échelle européenne.
Nous allons tenter de faire un peu de pédagogie sur l'effet cliquet des textes successifs, lequel rogne peu à peu les libertés publiques et individuelles.
Face au développement de la vidéosurveillance et de la collecte de données, la CNIL devait représenter une garantie pour les citoyens, en leur assurant la possibilité de consulter les données qui les concernent et de s'opposer à leur conservation. Ensuite, le législateur a instauré des exceptions suspendant l'application de cette garantie. La loi de 1978 prévoit des obligations d'information du public lorsqu'une caméra est installée dans un lieu public, mais on imagine sans peine que cette disposition trouve beaucoup moins à s'appliquer si la caméra est embarquée dans un drone – sauf à lui attacher une banderole, semblable à celle des avions publicitaires, sur laquelle serait écrit « Souriez, vous êtes filmés ». Lors de l'examen du projet qui est devenu la loi du 25 mai 2021 pour une sécurité globale préservant les libertés, nous nous étions posé la question de l'information du public sur la présence des drones : le texte prévoyait que le site du ministère de l'intérieur préciserait les heures de circulation de ses drones dans telle ou telle aire géographique, mais cette garantie a disparu dans la seconde mouture du texte, rendue nécessaire par la censure du Conseil constitutionnel. La loi dispose simplement que le ministère doit publier le nombre de drones qu'il achète ; le législateur a déjà reculé sur l'information concernant l'activité des drones, au motif que, dans le cadre de la lutte contre le terrorisme, les terroristes ne doivent pas savoir qu'ils sont filmés. Il y a là un problème démocratique majeur.
L'amendement CL413 a été retiré et le CL446 ne porte pas sur ce sujet.
Les décrets et les avis seront bien entendus publics. Il n'y a pas à redouter que les potentiels délinquants sachent ce que nous mettons en œuvre. Le dispositif possède une vertu dissuasive, qui participe à la protection que nous voulons déployer.
L'amendement CL413 est retiré.
La commission adopte l'amendement CL446.
Présidence de Mme Caroline Abadie, vice-présidente de la commission.
Amendement CL101 de M. Jean-Félix Acquaviva.
Cet amendement de précision vise à s'assurer que le public est préalablement informé que la zone dans laquelle il entre est surveillée par un dispositif d'intelligence artificielle, à charge pour le pouvoir réglementaire de s'assurer de la signalétique.
C'est malheureusement tout à fait illusoire, surtout pour les drones. Comment voulez-vous informer de la présence de drones ? En mettant des panneaux partout, au sol et dans le ciel ? Le respect de la vie privée sera entamé pour toute personne allant sur sa terrasse, quel que soit le nombre de panneaux que vous installerez. Nous sommes donc en contradiction avec plusieurs principes fondamentaux, voire avec la loi de 1978.
Le terme « préalable » renvoie à une temporalité non à un périmètre ; des arrêtés préciseront la délimitation de ceux-ci, y compris pour les drones dont les images feront l'objet d'un traitement algorithmique. Oui, les gens seront informés en temps et en heure.
La commission adopte l'amendement.
Amendement CL362 de Mme Sandra Regol.
L'information claire et permanente du public sur l'existence de dispositifs de surveillance est une garantie essentielle pour les droits et les libertés, comme la CNIL l'a explicitement rappelé. Le code de la sécurité intérieure prévoit cette garantie, qui est un préalable à toute contestation. Pourtant l'article 7 ne précise pas que cette information doit être claire et permanente. L'amendement vise donc à inscrire ces caractéristiques dans le texte, afin de s'assurer qu'il n'y sera pas dérogé et que les droits seront respectés partout dans le territoire.
En outre, alors que les Jeux olympiques sont un événement mondial qui attire un public parlant une multiplicité de langues, rien n'est prévu pour tenir compte de cette diversité linguistique dans les informations données aux spectateurs. Nous nourrissons la même crainte pour les forces de sécurité, dont la maîtrise de la langue anglaise est apparue comme toute relative lors du fiasco du Stade de France le 28 mai dernier, cette lacune étant l'une des raisons majeures de l'échec de la gestion du flux de la foule. Il serait dommage que tout l'argent investi dans la vidéosurveillance et les algorithmes aboutisse à la reproduction des mêmes problèmes parce que nous n'aurions pas analysé les causes de nos déconvenues et que nous aurions préféré continuer à appliquer les mêmes recettes, dont le bilan est de nombreux blessés et une honte internationale jetée sur notre pays.
Le même silence résonne pour l'information des personnes en situation de handicap, qui seront nombreuses à se déplacer dans les sites couverts par la vidéosurveillance algorithmique – rappelons que se dérouleront également des Jeux paralympiques. L'amendement a donc pour objet de mentionner expressément que l'information tienne compte de la diversité des handicaps, notamment la surdité et la malvoyance, ce qui requiert une formation spécifique des personnels. Si vous refusiez cette précision, il faudrait franchement reconnaître que les Jeux paralympiques ne sont pas accessibles aux personnes handicapées.
Le texte prévoit une information par « tout moyen approprié », ce qui satisfait l'objectif que vous poursuivez. En outre, le RGPD et le décret du 29 mai 2019, pris en application de la loi du 6 janvier 1978, exigent déjà la délivrance d'une information « concise, transparente, compréhensible et aisément accessible, en des termes clairs et simples ». Cette définition satisfait très largement l'objet de votre amendement.
Notre tâche est de trouver un équilibre entre la sécurité publique et les restrictions de liberté que celle-ci impose ; nous devons également élaborer un système opératoire, et je vous soupçonne d'avoir la maligne intention, qui fait écho à celle que vous nous prêtez en permanence, d'introduire des dispositions qui étayeront de futurs recours contre les décrets d'application de la loi aux cas d'usage. La définition que vous souhaitez insérer dans la loi empêcherait de prendre des décrets répondant aux exigences de celle-ci. Nous avons besoin de termes clairs, concis et transparents, cette requête étant satisfaite par le RGPD et la rédaction actuelle du projet de loi. Je vous demande donc de retirer l'amendement, à défaut, l'avis sera défavorable.
Votre réponse n'est pas satisfaisante. Vous nous dites qu'il est impossible d'anticiper tous les cas de figure et que vous redoutez des recours contentieux formés par des personnes n'ayant pas bénéficié d'une information dans leur langue, lesquels rendraient le dispositif inopérant : vous avouez ainsi que les droits fondamentaux ne seront pas respectés. Vous pouvez l'assumer, nous connaissons le slogan de l'extrême droite, repris par la droite puis par la macronie, « la sécurité est la première des libertés » ; or on voit bien que le texte demande de renoncer à de nombreuses libertés individuelles pour accroître la sécurité, notamment le droit de savoir quand on est surveillé. Je rappelle que la liberté est la première des sécurités. Plus on possède de droits, plus on se trouve en sécurité et même, osons le terme, en sûreté. C'est en effet le principe de sûreté, qui interdit les mises en cause arbitraires par la puissance publique, qui figure dans la Déclaration des droits de l'homme et du citoyen ; or la surveillance de masse par la puissance publique favorise les mises en cause arbitraires, notamment par manque d'information du citoyen.
Cela va mieux en le disant, monsieur le rapporteur. Le RGPD prescrit en effet la publication d'un minimum d'informations, mais l'article 6 retire toute mention de ce devoir du code de la sécurité intérieure. Il est regrettable que nous privions la loi française de cette référence. En outre, l'article 7 ne rappelle pas l'exigence de permanence et de clarté de ce devoir d'information. Vous tentez à chaque fois de nous rassurer en disant que cette exigence est implicitement posée, mais votre refus systématique de l'expliciter est inquiétant. Le devoir d'information n'est pas anecdotique car il permet de s'opposer à la surveillance, notamment par le dépôt de recours ; en cas de litige, les personnes, quels que soient leur pays d'origine, leur langue ou leur handicap, peuvent utiliser les images si elles ont été informées qu'elles y figuraient.
La première des libertés est de pouvoir aller et venir en toute sécurité. Voilà ce qui doit nous guider dans l'examen de ce projet de loi.
La commission rejette l'amendement.
Amendements CL253 de M. Paul Vannier, CL192 de Mme Lisa Belluco, CL361 de Mme Sandra Regol et CL302 de Mme Élisa Martin (discussion commune).
Vous avez évoqué la société orwellienne, mais là nous nous approchons du spectre de la société chinoise que nos concitoyens ne jugent pas désirable. Le Conseil d'État a déjà interdit ce dispositif de codage algorithmique. Qui contrôle cette fonction mathématique qui n'a rien de prédictif ? On peut laisser entendre que les gens se sentiront en sécurité ou en sûreté parce que des algorithmes détecteront en amont les éventuels dangers qui menaceraient un événement public, mais il est très peu probable qu'un algorithme ait pu empêcher l'attentat de Nice car il n'aurait pas vu dans un camion transportant des marchandises une potentielle arme. Un algorithme ne peut pas prédire, il ne peut qu'entériner ce qui s'est déjà produit ; il ne sert qu'à détecter des anomalies, donc une personne voulant perpétrer un attentat dans une manifestation publique n'aurait qu'à se vêtir normalement pour échapper à une surveillance algorithmique. Nous demandons à obtenir la transparence de leur code.
Ce texte ouvre la porte à toutes les dérives car il prévoit des dérogations peu encadrées et floues à l'information du public sur l'usage de la surveillance fondée sur l'intelligence artificielle. La rédaction actuelle de l'article autorise des dérogations au droit à l'information – droit essentiel, selon la CNIL qui n'a pas été entendue, à une garantie minimale des droits fondamentaux et des libertés publiques – « lorsque les circonstances l'interdisent ou que cette information entrerait en contradiction avec les objectifs poursuivis », selon les termes de l'alinéa 3.
Cela pose plusieurs problèmes. Tout d'abord, on ne voit pas dans quelles circonstances ou pour quels objectifs l'existence de ces caméras devrait être ainsi cachée aux citoyens, sauf à tous les considérer comme des suspects qui doivent être surveillés à leur insu et à vouloir laisser l'infraction se produire plutôt qu'à en empêcher la commission, ce qui me semble le devoir d'une sûreté publique correctement pensée, selon la Déclaration des droits de l'homme et du citoyen que vient de citer mon collègue Bernalicis. Ensuite, le grand flou de la formulation du texte, intégrée au code de la sécurité intérieure, fera de l'information du public l'exception et du secret la règle. Il y a là un loup, costaud et visible, qui pose un problème juridique, car n'importe quel argument pourra être avancé pour se soustraire à l'obligation d'information. Nous demandons donc la suppression de cette dérogation, d'autant que nous parlons ici de la surveillance algorithmique et que nous ne disposons toujours pas d'étude correcte sur la vidéosurveillance, bien plus intrusive.
La technologie n'est pas une religion ; si elle peut représenter une avancée, elle peut également se révéler problématique, l'histoire de notre pays l'ayant largement démontré : ainsi, les pesticides ont été salués comme un grand progrès, alors que plusieurs d'entre eux sont désormais retirés à cause de leur nocivité. La technophilie et l'obsession technophile sont deux choses différentes : peut-être serait-il temps d'y penser sur la VSA
L'amendement CL302 vise à supprimer la fin de l'alinéa 3 de l'article. L'enregistrement de données soumises à des traitements algorithmiques exige une information du public concerné, dont le principe ne doit souffrir aucune exception ni aucun contournement.
Le début de l'alinéa prévoit bien l'information du public sur l'emploi de traitements algorithmiques sur les images collectées par des systèmes de vidéosurveillance ou des drones, reprenant ainsi une formulation que le législateur avait dû insérer dans la loi pour une sécurité globale après une très juste censure d'une première version par le Conseil constitutionnel. En revanche, la fin de l'alinéa, qui prévoit des dérogations « lorsque les circonstances l'interdisent ou que cette information entrerait en contradiction avec les objectifs poursuivis », remet en cause le principe constitutionnel de clarté de la loi et présente une ambiguïté. Il faudrait préciser la nature des motifs de la dérogation : s'agit-il d'une exception liée à la lutte contre le terrorisme ? Si tel était le cas, le danger serait grand, car cette lutte pourra toujours être avancée pour justifier la dérogation, ce qui rendra caduc le droit à l'information du public. Il faut donc supprimer la fin de cet alinéa ou expliciter clairement ce qu'il recouvre.
La CNIL intervient en amont de la délivrance de l'attestation de conformité ; en outre, un contrôle s'exerce à chaque étape ; enfin, le code de l'algorithme n'apparaît pas dans les textes incidemment : s'il y a bien quelque chose qui pourrait servir aux terroristes, ce serait la maîtrise du code de l'algorithme et des moyens de le contourner. Je ne soutiendrai bien entendu pas ces amendements.
Pour être honnête, j'ai très longtemps hésité sur l'avis à donner sur la suppression de la fin de l'alinéa 3 de l'article, avant de décider d'y être défavorable. L'expression « lorsque les circonstances l'interdisent ou que cette information entrerait en contradiction avec les objectifs poursuivis » correspond en pratique à des situations d'urgence, en particulier dans la lutte contre le terrorisme qui exige de n'informer le public ni au préalable, ni en temps réel : en cas d'alerte à la bombe, on peut faire décoller un drone pour vérifier la menace, mais on ne peut pas informer le public sur l'action de l'aéronef. En outre, cette formule est nécessaire à la cohérence du droit actuel, dans la mesure où ces traitements algorithmiques pourront être couplés à des caméras aéroportées, pour lesquelles une exception identique figure à l'article L. 242-3 du code de la sécurité intérieure. Enfin, cette exception s'appuie sur l'article 14 du RGPD, qui utilise les mêmes termes: il n'y a donc aucune évolution du droit portant préjudice à l'information du public. J'émets un avis défavorable, même si, encore une fois, j'ai hésité parce que l'on aurait pu se dire que le RGPD suffisait, mais autant assurer la plus grande homogénéité possible entre celui-ci et ce texte.
La dérogation sera donc générale, puisque la lutte contre le terrorisme peut justifier partout et dans n'importe quelle circonstance d'y avoir recours.
La loi doit être transparente et explicite : vous évoquiez des situations d'urgence pouvant justifier une dérogation au droit à l'information du public, dressez-en la liste dans la loi.
Je soutiens les arguments du rapporteur : les termes de l'alinéa 3 sont repris à la fois dans un texte qui a passé le contrôle constitutionnel et dans le RGPD. Les situations visées sont exceptionnelles. Il sera bon, dans le cadre de nos débats en séance publique, que vous demandiez aux ministres d'illustrer de telles situations par des exemples, qui figureront ainsi au compte rendu des débats et seront publiés au Journal officiel, ce qui éclairera l'intention du législateur, mais ne dites pas que des circonstances comme la lutte contre le terrorisme seront systématiquement mises en avant pour priver le public de son droit à l'information. Les actes administratifs sont pris en application de décrets en Conseil d'État, contre lesquels on peut former des recours ; en outre, des articles du code de la sécurité intérieure disposent qu'en cas de péril imminent, aucune autorisation préalable n'est nécessaire pour agir. Les forces de l'ordre – la brigade de recherche et d'intervention (BRI), Raid ou le Groupe d'intervention de la gendarmerie nationale (GIGN) – peuvent utiliser les données recueillies en cas de péril imminent.
Il faut de la cohérence entre le projet de loi et le code de la sécurité intérieure. Le texte sera soumis au Conseil constitutionnel, mais ces termes l'ont déjà été et aucune réserve d'interprétation n'a été retenue ; on pourrait donc les reprendre ici pour disposer d'un texte juridiquement solide.
À plusieurs reprises depuis ce matin, l'attentat de Nice – il faudrait en fait parler de l'attentat de la promenade des Anglais – a été évoqué. Le procès qui s'est tenu devant la cour d'assises spéciale n'est malheureusement pas parvenu à dissiper toutes les zones d'ombre : certains éléments ne seront jamais connus. J'invite donc les personnes qui font référence à cet attentat à utiliser parfois le conditionnel, par égard pour les victimes et leurs proches.
La commission rejette successivement les amendements.
Amendements CL254 de M. Paul Vannier et CL193 de Mme Lisa Belluco (discussion commune).
Nos amendements visent parfois à supprimer une disposition du texte, mais cet amendement propose d'en ajouter une nouvelle, à savoir l'intégration dans le champ de l'information du public d'une totale transparence sur le code de l'algorithme développé. Comme cela a été dit par les ardents défenseurs de cette vidéosurveillance intelligente, les comportements anormaux ciblés devront avoir été programmés au préalable. Si on constate, par exemple, que des camionnettes blanches sont souvent utilisées dans des cambriolages, les opérateurs seront avertis de l'arrivée d'un tel véhicule dans une zone surveillée – je prends l'exemple d'une camionnette mais on pourrait imaginer des dérives discriminatoires fondées sur l'apparence des gens, comme le port de sweats à capuche. La transparence est indispensable pour connaître l'objet de la surveillance. J'aimerais savoir si le port d'un sweat à capuche déclenche la surveillance, afin de ne pas en mettre et de ne pas déranger inutilement les opérateurs et les policiers.
La transparence est une exigence démocratique dans un État de droit : le minimum est de connaître l'algorithme car avec les dérogations de l'alinéa 3, nous ne serons même pas informés du déclenchement de la surveillance ; il faut donc que les cibles de celle-ci soient connues. Si les pouvoirs publics abusent du recours aux dérogations, en s'abritant derrière les exigences de la lutte contre le terrorisme, le citoyen ne pourra pas contester ces excès car il ne saura pas qu'il était surveillé.
Une opacité entoure les algorithmes ; d'ailleurs, un collègue dont je tairai le nom me disait il y a quelques minutes hors micro qu'il n'y avait rien de plus bête qu'une intelligence artificielle.
Preuve en est, les dispositifs d'intelligence artificielle testés sur les réseaux sociaux sont rapidement devenus des monstres acharnés de haine : ils n'apprennent pas et sont confrontés à une accumulation d'informations allant dans le sens voulu par leurs créateurs.
Dans son avis du 8 décembre sur le projet de loi, la CNIL considère que les outils d'analyse automatisés des images peuvent entraîner des risques importants pour les libertés individuelles et collectives, ainsi qu'un risque de surveillance et d'analyse dans l'espace public : on ne peut pas dire qu'elle soutienne franchement votre dispositif. Le Conseil d'État estime que le traitement des images est susceptible de mettre en cause la protection de la vie privée ainsi que d'autres droits et libertés fondamentales, telles que les libertés d'aller et venir, d'opinion et de manifestation. La transparence et l'accessibilité des traitements algorithmiques sont essentielles : le flou n'est pas acceptable alors que les forces de l'ordre décideront ou non d'intervenir, pendant une période prétendument courte mais en réalité bien longue, sur la base de l'analyse de ces algorithmes ; les ordres donnés et les moyens d'accumulation des informations ne peuvent rester hors de tout contrôle car le risque existe que ces informations soient utilisées de manière obsessionnelle contre certains comportements et certaines personnes.
Les écologistes proposent donc que les traitements algorithmiques soient rendus accessibles au public sous un format ouvert et librement réutilisable et que les données et les images ne puissent être ni cédées ni vendues. Si cet amendement était adopté, on pourrait commencer à vous croire sur le fait qu'il ne s'agit pas d'une grosse opération commerciale.
La CNIL comme le Conseil d'État ont remarqué que l'analyse des images et le recours à l'intelligence artificielle posaient des questions de libertés publiques, qui exigeaient de trouver un équilibre entre la sécurité des personnes et le respect des données personnelles et des libertés publiques. C'est bien pour cela que l'article 7 offre les garanties nécessaires à l'usage de la surveillance par intelligence artificielle et au traitement des données.
Si nous avons confirmé le dispositif de dérogations dont nous avons parlé précédemment, c'est bien parce qu'il figure à l'article 23 du RGPD, règlement dont vous avez affirmé récemment, madame Regol, qu'il était une conquête des écologistes ; je ne peux imaginer que ceux-ci y aient laissé des dispositions liberticides.
Rendre public le code de l'algorithme reviendrait à aider tous ceux qui voudraient le pirater et le détourner, ce qui menacerait la sécurité. En revanche, l'alinéa 14 offre des garanties puisqu'il dispose que les données sont « pertinentes, adéquates et représentatives, leur traitement loyal, objectif et de nature à identifier et prévenir l'occurrence de biais et d'erreurs. » Les scénarios d'usage seront précisément déterminés et ne concerneront pas les personnes : il n'y aura pas de reconnaissance faciale ni de données biométriques. Les analyses se porteront essentiellement sur des colis abandonnés et des mouvements de foule, donc ne faites pas de faux procès. Avis défavorable.
Avez-vous testé ces algorithmes et les logiciels qui les utilisent ? Si vous l'aviez fait, vous auriez constaté que la reconnaissance faciale est une simple case à cocher dans les logiciels, que seules trois entreprises développent et installent en France. On peut même utiliser, en cas de contrôle, un cache empêchant de vérifier si l'option est cochée. Dire aux représentants du peuple qu'il n'y a pas de reconnaissance faciale alors qu'elle est intégrée d'office, n'est pas acceptable. Dire qu'il n'y a pas de reconnaissance biométrique quand tous les partisans des algorithmes expliquent que ceux-ci reposent sur de la reconnaissance vectorielle, c'est-à-dire que des points relient les diverses parties du corps dont le visage, revient à se moquer du peuple. Je veux bien que nous discutions, mais soyons sérieux : vous ne pouvez pas croire sincèrement aux arguments que vous venez d'avancer. La seule solution serait que l'État développe lui-même intégralement un algorithme, ce qui irait dans le sens d'un algorithme dont le code source serait ouvert.
Monsieur le rapporteur, vous avez craqué – mais pas le code, hélas. De très grandes entreprises pratiquent les bug bounty ou primes aux bogues : ils laissent les codes de leurs algorithmes à la disposition de hackers bienveillants, afin que ces derniers les améliorent et les rendent moins piratables. Telle est la vertu du code source ouvert ; contrairement à ce que vous dites, l'ouverture du code source empêche son piratage, tout en offrant des garanties démocratiques. J'avais rencontré au salon annuel de la cybersécurité à Lille le collectif YesWeHack, qui agit efficacement dans ce domaine. C'est utile au débat public de savoir que la transparence du code a des vertus, y compris dans la lutte contre le piratage.
La CNIL et la Défenseure des droits expliquent que l'usage des algorithmes porte en lui des biais de discrimination, pour l'identification desquels il faut avoir accès au code, sinon seules des constatations a posteriori – sur le fait que les personnes portant un sweat à capuche, par exemple, sont systématiquement surveillées – seront possibles. J'étais très favorable à l'amendement de réécriture déposé par les députés du groupe Socialistes et apparentés car son adoption aurait permis d'écrire dans la loi que les algorithmes ne devaient pas comporter de biais discriminatoires ; or l'algorithme fonctionne sur l'idée de discriminer les personnes en fonction de leur comportement.
Je ne peux pas vous laisser dire, madame Regol, que seules trois entreprises développent des algorithmes d'intelligence artificielle appliqués à la vidéosurveillance et qu'elles pratiquent la reconnaissance faciale. Ce n'est pas vrai ! Il y a des dizaines d'entreprises, rien qu'en France, qui élaborent des algorithmes d'intelligence artificielle pour de la vidéo. Certaines d'entre elles sont intégrées à des incubateurs dans les plus grands opérateurs de transport public comme la RATP et la SNCF. Elles n'utilisent ni biométrie, ni reconnaissance faciale : vous agitez systématiquement ce chiffon rouge, alors que ce que vous pointez n'existe pas.
Des laboratoires publics travaillent sur ces questions, et nous avons déposé un amendement visant à ce que l'État puisse fournir des jeux de données pour vérifier l'absence de biais des algorithmes. Nous souhaitons créer un équivalent français de l'institut national des normes et de la technologie – Nist en anglais pour National Institute of Standards and Technology – américain ; le NIST fait tourner les algorithmes à partir d'un jeu de données et sait exactement les informations qu'il doit et celles qu'il ne doit pas récupérer : c'est une façon de prouver que l'algorithme est loyal, ne comporte pas de biais et ne peut pas déboucher sur des discriminations. Développer un tel dispositif est faisable en France ; la CNIL s'est dotée d'un service d'intelligence artificielle justement pour exercer ces contrôles.
Ne jetez pas une suspicion généralisée en demandant d'ouvrir le code pour ne pas avoir de biais. Si vous demandez à Google d'ouvrir son code, celui-ci ne vaudra plus rien.
Non, le sujet n'est pas l'argent, mais l'efficacité du contrôle. La CNIL peut l'effectuer sans avoir accès à la totalité du code, simplement en disposant d'un jeu de données permettant de déterminer précisément ce que seront les résultats.
La commission rejette successivement les amendements.
Puis elle adopte l'amendement rédactionnel CL447 de M. Guillaume Vuilletet, rapporteur.
Amendement CL70 de M. Roger Vicot.
Comme ce qui va sans dire va mieux en l'écrivant, nous proposons d'insérer, dans l'alinéa 5, la phrase suivante : les algorithmes « ne peuvent induire aucune des formes de discrimination mentionnées à l'article 225-1 du code pénal. »
Votre amendement est déjà satisfait par l'alinéa 14 de l'article, qui se lit ainsi : « Lorsque le système d'intelligence artificielle employé repose sur un apprentissage, des garanties sont apportées afin que les données d'apprentissage, de validation et de test choisies soient pertinentes, adéquates et représentatives, leur traitement loyal, objectif et de nature à identifier et prévenir l'occurrence de biais et d'erreurs. Ces données doivent demeurer accessibles et être protégées tout au long du fonctionnement du traitement ». L'alinéa 21 dispose en outre que « Le respect des exigences énoncées au présent V fait l'objet d'une attestation de conformité établie par l'autorité administrative compétente. Cette attestation est publiée avant que le traitement soit mis à la disposition des services mentionnés au I qui demandent l'autorisation de l'utiliser dans les conditions prévues au VI. »
Je demande le retrait de l'amendement, à défaut, l'avis sera défavorable.
Je n'ai rien entendu, dans ces arguments, qui indique explicitement qu'il importe de veiller à ce que les traitements n'induisent aucune forme de discrimination. Lors des auditions, il nous a été dit que des CV vidéo avaient vraisemblablement été analysés par les algorithmes et que toutes les personnes ayant un accent étranger ou marseillais avaient été écartées d'emblée. Il est donc nécessaire de préciser que l'on exclut toute forme de discrimination.
Il n'y aura pas de discriminations : il est écrit clairement que l'utilisation de données biométriques et de la reconnaissance faciale est interdite. Sur le plan technique, il n'est pas impossible d'aboutir à de tels résultats, bien sûr ; c'est justement pour cela que la loi interdit de tels usages. Les alinéas 14 et 21 garantissent qu'il n'y aura aucune faille en la matière.
La commission rejette l'amendement.
La commission adopte l'amendement rédactionnel CL448 de M. Guillaume Vuilletet, rapporteur.
Amendement CL194 de Mme Lisa Belluco.
La possibilité d'utiliser a posteriori les images captées par vidéosurveillance est une autre forme d'atteinte aux droits des personnes. Les images serviraient non plus seulement à des raisons alléguées de sécurité, mais aussi à l'apprentissage d'une intelligence artificielle, à des fins commerciales.
Nous venons d'avoir un échange passionnant : notre collègue Philippe Latombe a déclaré que si l'on publiait en open source ses algorithmes, Google ne rapporterait plus rien.
Ce qui se joue à travers ces algorithmes, ce sont donc des intérêts financiers – qui ne sont pas localisés en France, du reste. C'est un vrai problème. Quand bien même, d'ailleurs, il s'agirait d'entreprises françaises, la défense de la vidéosurveillance automatisée (VSA) est en fait celle d'intérêts financiers : il ne s'agit pas d'assurer la sécurité des personnes et la bonne tenue des JO.
Nous souhaitons empêcher cette dérive qui fait passer les profits avant les libertés fondamentales, sous prétexte de sécurité. De plus, la conservation des images après leur utilisation en temps réel, dans un contexte de cybersécurité sous haute tension, expose à des fuites de données et à une utilisation ultérieure de ces données hors de tout encadrement légal. Pour rappel, il y a eu 4 milliards de cyberattaques pendant les JO de Tokyo en 2021.
À travers cet amendement, nous demandons donc l'interdiction de toute utilisation a posteriori des images captées pendant les Jeux olympiques et paralympiques .
Certes, le premier alinéa précise que les traitements ont vocation à détecter des événements et à les signaler en temps réel, et pas a posteriori. Mais dans une finalité unique et bien précise, à savoir l'apprentissage, les algorithmes doivent s'appuyer sur des données préalablement enregistrées. Ce traitement a pour but rendre les algorithmes plus efficaces.
Je me suis efforcé d'obtenir toutes les garanties possibles, mais celles-ci ne sauraient conduire à rendre le système inopérant – c'est l'objet de l'amendement que je proposerai à l'alinéa 32. Avis défavorable.
Dans le cadre des auditions, décidément fort instructives, l'Alliance pour la confiance numérique (ACN), qui rassemble des industriels du secteur, nous a d'emblée indiqué qu'elle avait besoin d'une libéralisation majeure des données captées par la vidéosurveillance : c'est ainsi que les fabricants pourront entraîner leurs logiciels et les vendre à un bon prix. Cela nous a été dit de façon tellement claire que nous avons été choqués de cette inversion des rôles : tout d'un coup, c'est nous qui étions auditionnés et nous retrouvions au pied du mur. À cela s'ajoute la protection du secret industriel, qui empêchera d'imposer des garanties, à moins que celles-ci ne soient inscrites dans la loi. Le projet est donc clair : il s'adresse aux industriels. Nous nous livrons pieds et poings liés ! C'est incroyable !
Je ne peux pas vous laisser travestir mes propos. J'ai dit que, si vous demandez à des entreprises comme Google de vous donner leur code, elles le feront, et même assez facilement, car celui-ci aura changé dès le lendemain, et vous n'aurez pas la capacité technique d'aller l'investiguer pendant ces vingt-quatre heures.
Le véritable enjeu, s'agissant de l'intelligence artificielle, est de s'assurer qu'il n'y a pas de biais, que le traitement est loyal. Une manière assez simple de le faire est de donner des jeux de données standardisés, sous le contrôle de la CNIL. C'est ce qui est prévu dans l'article. Ainsi, on sait exactement ce qu'il y a dedans, on connaît les résultats positifs que l'on peut en attendre, ainsi que les résultats négatifs que l'on souhaite éviter.
Les spécialistes que nous avons interrogés nous l'ont bien dit : il faut plusieurs jours, parfois même des mois pour analyser un code. Nous ne nous en sortirons donc qu'en ayant des jeux de données standardisés. L'open data, pour ce genre de systèmes, ne fonctionne pas.
Vous établissez un lien avec la cybersécurité et agitez la crainte de fuites de données. Or il existe déjà de telles images ; elles sont stockées selon des règles fixées notamment par l'Agence nationale de la sécurité des systèmes d'information (ANSSI). Il en ira de même pour les traitements algorithmiques : ils seront placés sur des serveurs sécurisés avec le concours de l'ANSSI. Cessez donc de susciter la crainte. Pourquoi ne parlez-vous pas du fait que la France s'est dotée d'instruments de cybersécurité pour éviter que les données du cloud d'Alibaba ne partent n'importe où ? Nous faisons le nécessaire pour nous protéger : le texte n'autorise pas n'importe quoi.
Je me souviens de l'audition en question. En effet, le représentant de l'ACN a été très clair sur ce qu'il aimerait avoir – mais nous ne le lui donnons pas. C'est pour cela que nous prévoyons le contrôle de la CNIL et l'établissement d'une attestation ; des engagements sont pris. Notre rôle de législateur est de fixer des limites : une entreprise qui utiliserait des données de façon frauduleuse encourrait les sanctions prévues par la loi.
La commission rejette l'amendement.
Amendements CL65 et CL64 de M. Roger Vicot.
Personne n'est dupe : la vidéoprotection augmentée, intelligente, ne sera pas utilisée seulement pendant quelques mois, dans le cadre d'une expérimentation. Lors d'une interview, le président de l'Association nationale de la vidéoprotection (AN2V) s'est réjoui, peut-être imprudemment, de l'ouverture de nouveaux segments de marché à l'occasion des Jeux olympiques et au-delà : enfin, disait-il, on allait pouvoir se partager le marché de la vidéosurveillance augmentée. Dès l'instant où personne ne croit qu'il s'agit d'une simple expérimentation, il faut encadrer le dispositif aussi intelligemment que possible.
L'amendement CL65 a trait, comme mon amendement précédent, aux discriminations. Il vise à préciser que les traitements ne pourront en aucun cas se fonder sur la couleur de peau des individus.
L'amendement CL64 a pour objet de limiter le traitement aux abandons de bagages.
Les technologies en question existent déjà. L'objet de l'expérimentation est de savoir si les usages visés, une fois que l'algorithme aura été nourri par des jeux de données, permettront de garantir la sécurité des citoyens. Or la réponse n'est pas écrite. Nous considérons que ces outils apportent un gain, car des expériences allant dans ce sens ont déjà été menées – en France, par la SNCF, et en Espagne, pour d'autres cas de figure –, mais nous évaluerons les résultats. Il s'agit donc bien d'une expérimentation législative, et de rien d'autre.
Des données telles que la couleur de peau ne seront pas utilisées car le texte exclut explicitement le recours aux données biométriques et à la reconnaissance faciale.
Quant à votre proposition de cantonner l'utilisation de l'algorithme aux bagages abandonnés, nous considérons qu'il ne faut pas limiter le dispositif. Les usages possibles seront clairement établis et figureront dans l'attestation de la CNIL.
Pouvez-vous nous assurer qu'à la fin de ce qui est appelé ici « expérimentation », il n'y aura pas de vaste ouverture au marché de la vidéosurveillance augmentée s'appuyant sur ce qui aura été fait pendant les Jeux olympiques ?
L'autorisation de nouveaux usages de la vidéoprotection passerait obligatoirement par une loi. Je serai même un peu ficelle : ayez confiance en vous, c'est peut-être vous qui serez chargés d'examiner ce texte… Quoi qu'il en soit, même si une nouvelle loi devait être proposée à l'issue de l'expérimentation, la représentation nationale contrôlerait le dispositif. Rien dans le texte ne permet d'ouvrir de nouveaux marchés.
Il est bien naturel que les industriels attendent des bénéfices de ce retour d'expérience : tout le monde voudra mettre en avant la réussite des JO, des voyagistes aux entreprises chargées des lampes à LED, en passant par les logisticiens et les sociétés assurant l'approvisionnement en nourriture. Tous ceux qui auront participé à l'organisation des JO feront valoir leurs compétences et leur crédibilité en s'appuyant sur cette expérience unique.
Ce qui semble évident quand on vous écoute ne l'est pas quand on lit le texte, et on sent une résistance profonde à l'idée d'inscrire dans la loi des dispositions entravant une mise sur le marché rapide de ces algorithmes. Il y a quelques mois, devant les professionnels des industries de la protection, dans le cadre du salon Expoprotection, M. Latombe a dit clairement qu'il y avait urgence à commercialiser ces algorithmes : « Il faut que les entreprises puissent commercialiser des produits le plus rapidement possible ». Il s'est alors engagé auprès de ces industriels à ce que le dispositif soit efficace et rapide. J'aurais bien aimé vous montrer la vidéo de cette intervention, mais elle a disparu de YouTube. Du fait de l'absence de droit à l'oubli sur internet, je suis sûre que nous la retrouverons.
Je veux bien qu'aucun intérêt économique ne se cache derrière cette discussion ; reste qu'il y a là une collusion d'intérêts qui est de nature à jeter le doute sur les arguments mis en avant, lesquels visent à restreindre l'encadrement juridique, accélérer la procédure et offrir le plus de droits possible aux systèmes de vidéosurveillance utilisant une « intelligence artificielle algorithmique ».
La manière dont vous interpellez M. Latombe est excessive. De telles choses ne se font pas. L'expertise de Philippe Latombe en la matière est reconnue ; il mène d'ailleurs avec M. Gosselin une mission dont les conclusions sont attendues prochainement. M. Latombe est présent depuis le début de la matinée et étaye chacune de ses explications. Vous sortez de votre chapeau des propos tenus lors d'un salon auquel M. Latombe avait parfaitement le droit de participer, comme tout un chacun. L'un de nos collègues de La France insoumise parlait ainsi du salon des technologies numériques, à Lille, où il s'était rendu et où il avait échangé avec des experts, ce qui avait alimenté sa réflexion.
La commission rejette successivement les amendements.
La commission adopte successivement les amendements rédactionnels CL449 et CL450 de M. Guillaume Vuilletet, rapporteur.
Amendements identiques CL364 de Mme Sandra Regol et CL66 de M. Roger Vicot.
Il est prévu que l'application d'un traitement algorithmique sur des images de vidéosurveillance fasse l'objet d'une autorisation par décret, après avis de la CNIL. La procédure n'est pas assez contraignante : l'autorité administrative pourrait tout à fait ignorer cet avis. Le caractère sensible des données traitées – il s'agit d'images captées par des caméras installées sur la voie publique – nécessite pourtant un contrôle étroit afin d'éviter toute dérive. Nous proposons donc de rendre obligatoire un avis conforme de la CNIL. La commission pourra ainsi s'opposer au recours à la vidéosurveillance algorithmique, notamment si elle apparaît comme disproportionnée ou non nécessaire.
La CNIL n'a pas vocation à rendre des avis conformes, susceptibles de bloquer l'action du pouvoir réglementaire. Elle ne l'a jamais fait et ce n'est pas son rôle. Le Gouvernement prendra en responsabilité les décrets qui s'imposent, dans la limite de ses compétences et sous le contrôle du juge administratif.
Nous verrons un peu plus loin, s'agissant du criblage, que des enquêtes administratives seront menées et que les employeurs devront alors émettre un avis conforme, ce qui, pour le coup, paraît justifié.
L'avis de la CNIL sera public ; à ce titre, il nourrira le débat. Le décret, quant à lui, pourra faire l'objet d'un recours.
Nous approuvons ces mécanismes visant à contrôler l'application du dispositif. Savez-vous pourquoi ? Parce qu'en vérité de telles pratiques ont déjà cours, en toute illégalité. Il est d'ailleurs incroyable que nous, députés, nous acceptions l'existence de dispositifs à la fois liberticides et inefficaces. Nous devrions exiger le démontage de toutes ces caméras.
La commission rejette les amendements.
Amendement CL71 de M. Roger Vicot.
En dépit de l'inutilité alléguée de la disposition, nous demandons, une fois encore, que l'intégralité du code soit communiquée.
Nous poursuivons la même discussion – même si, j'en conviens, elle n'est pas vulgaire : la question mérite d'être éclaircie. Nos débats sont importants, car ils peuvent servir à interpréter le dispositif.
La CNIL fera l'usage de ses très nombreuses prérogatives, conformément à la loi « informatique et libertés », et elle exercera un contrôle durant toutes les phases de l'expérimentation, comme il est prévu à l'alinéa 33. Par ailleurs, dans son avis, la CNIL n'a pas sollicité l'intégralité du code du traitement. Avis défavorable.
La commission rejette l'amendement.
Amendement CL195 de Mme Lisa Belluco.
Selon un récent sondage européen, 85 % des Français interrogés estiment important, voire très important, de comprendre comment le modèle d'intelligence artificielle fonctionne lorsqu'il est utilisé par une entreprise privée ou une institution et lorsqu'il sert à évaluer leur comportement ou à le prédire. Cette préoccupation est tout à fait légitime. Ce que nous gagnerions supposément en matière de sécurité, nous le perdrions en matière de libertés individuelles et de droit à la vie privée. Les gains et les pertes s'équilibrent-ils vraiment ? On est en droit de se poser la question.
On pourrait également redouter une forme ou une autre de discrimination fondée sur des caractères physiques ou des comportements considérés comme anormaux. Les « événements prédéterminés » dont il est question ne sont pas définis, et le texte indique encore moins la façon dont ils sont détectés par l'intelligence artificielle. Il apparaît donc nécessaire de préciser autant que possible les critères permettant la catégorisation de ces événements, ainsi que le processus d'apprentissage de l'algorithme.
L'expression « caractéristiques essentielles », que vous entendez modifier, est consacrée par la jurisprudence administrative. Il me paraît de bon aloi qu'elle figure dans le texte.
Par ailleurs, le 1° du V dispose : « Lorsque le système d'intelligence artificielle employé repose sur un apprentissage, des garanties sont apportées afin que les données d'apprentissage, de validation et de test choisies soient pertinentes, adéquates et représentatives, leur traitement loyal, objectif et de nature à identifier et prévenir l'occurrence de biais et d'erreurs. »
En outre, l'ensemble des mécanismes de l'article sera soumis au contrôle de la CNIL, qui est un rouage essentiel des garanties que nous entendons apporter.
Vos exigences sont donc satisfaites, et je demande le retrait de l'amendement ; à défaut, avis défavorable.
Vous venez de repousser un amendement visant à rendre décisif le contrôle de la CNIL : il est paradoxal de m'opposer le fait que celle-ci sera consultée…
La commission rejette l'amendement.
Successivement, la commission rejette l'amendement CL67 de M. Roger Vicot, suivant l'avis du rapporteur, et adopte l'amendement de coordination CL451 de M. Guillaume Vuilletet, rapporteur.
Amendement CL68 de M. Roger Vicot.
Il s'agit de sécuriser l'algorithme en faisant en sorte que la puissance publique soit garante des résultats et de la gestion du système. Pour ce faire, l'amendement vise à imposer à l'État d'assurer le développement du traitement algorithmique au lieu de le sous-traiter à une entreprise privée.
L'État pilotera l'ensemble du processus ; ce sont ses services qui délivreront l'attestation de conformité préalable à l'emploi des traitements, en vérifiant que l'ensemble des exigences sont satisfaites.
Cependant, compte tenu de l'état du marché de l'intelligence artificielle, l'État devra avoir recours à des tiers, au moins dans un premier temps, afin de développer le traitement ou de l'acquérir. Il est illusoire, alors que l'usage de caméras augmentées nécessite l'établissement d'un cadre légal, de penser que l'État peut tout faire tout seul, dans un domaine où les acteurs privés ont déjà plusieurs longueurs d'avance.
Le recours à des tiers justifie aussi le rôle d'accompagnement attribué à la CNIL et le fait de leur imposer une série d'obligations – d'ailleurs renforcées par le Sénat s'agissant des déclarations d'intérêts – afin de vérifier qu'ils présentent des garanties suffisantes pour ce qui est de développer les traitements pour le compte de l'État. Avis défavorable.
L'amendement de M. Vicot est particulièrement important : dès lors que le dispositif va à l'encontre des libertés publiques, il est impératif qu'il reste dans le giron de l'État. Cette observation ne signifie pas que nous acceptons l'utilisation des algorithmes, mais compte tenu du danger qu'ils représentent, il n'est pas possible de les laisser entre les mains du marché.
La commission rejette l'amendement.
Amendement CL332 de M. Jordan Guitton.
Le traitement des données captées par des caméras algorithmiques est un sujet sensible. Les données des utilisateurs doivent être protégées autant que possible. À cette fin, l'amendement CL332 vise à ce que l'État s'engage à « mettre en œuvre une politique d'achat responsable et orientée vers une entreprise française ». Cette formulation reprend la terminologie retenue pour l'un des objectifs de la politique d'achat exposée dans la loi d'orientation et de programmation du ministère de l'intérieur (Lopmi).
Il s'agit d'un amendement d'appel, dont nous pourrons rediscuter en vue de la séance. Il est très important de savoir où vont nos données et par qui elles sont traitées. C'est donc un amendement souverainiste, visant à sécuriser la conservation des données françaises.
Sur le fond, je suis plutôt d'accord avec l'objectif ; encore faut-il qu'un choix économique réel existe.
Par ailleurs, il s'agit effectivement d'un amendement d'appel : sur la forme, il a ses limites. En particulier, il me paraît dépourvu de tout caractère normatif. Je ne sais pas ce que signifie, sur le plan juridique, l'expression : « Tous les leviers en sa possession ». Je crains même qu'il ne soit incompatible avec le droit européen. Avis défavorable.
L'amendement me semble tout à fait clair : « Tous les leviers en sa possession seront ainsi mobilisés », est-il écrit. Nous achèterons donc à des entreprises françaises s'il y en a sur le marché ; dans le cas contraire, bien entendu, nous ne pourrons pas inventer ce qui n'existe pas…
Je ne suis pas sûr que l'amendement soit suffisamment normatif pour être adopté en l'état, mais il permet d'aborder une question importante, qui ne me paraît pas, du reste, faire débat entre nous : nous réaffirmons en permanence la nécessité d'un cloud et de traitements de données souverains. Le cadre français – sans doute aussi européen – offre des garanties, à condition évidemment que des entreprises existent sur ce marché.
Quoi qu'il en soit, il faut éviter de tomber dans des débats similaires à ceux qui ont surgi au moment de l'état d'urgence sanitaire, lorsque la Plateforme des données de santé – le Health Data Hub – avait confié à une entreprise américaine bien connue le traitement de certaines données. Cela avait déchaîné les passions, à juste titre : on ne doit pas dépendre des autres. Il faut que l'excellence soit aussi de notre côté.
L'amendement doit donc être reformulé en vue de la séance pour que la rédaction en soit plus rigoureuse sur le plan juridique, mais la question mérite d'être abordée. Si nous voulons lever certaines préventions, il faut en passer par là : cela doit être une politique clairement affichée – et réalisée.
C'est effectivement une question que nous devons aborder. Nous proposons de retravailler l'amendement avec le groupe d'études relatif à l'économie, à la sécurité et à la souveraineté numériques, où sont représentées toutes les sensibilités de l'Assemblée. La rédaction soulève, notamment, une question de conventionnalité : le dispositif est fléché vers une entreprise française, alors qu'il faudrait plutôt que ce soit une entreprise française ou européenne.
Certes, l'amendement n'est pas normatif, mais il permet d'inciter à s'orienter vers des entreprises françaises ; c'est exactement ce qui avait été inscrit dans la Lopmi, et c'est une démarche dans laquelle s'inscrit le ministère de l'intérieur.
L'objectif consistant à garantir notre souveraineté est extrêmement important, et nous y reviendrons à plusieurs reprises. Il n'y a pas de débat entre nous sur ce point. Il faudra simplement veiller à se conformer au cadre européen.
Je vous faisais observer que la notion de « levier » n'avait pas une portée normative. Cela dit, votre objectif était de lancer le débat. C'est chose faite, et le compte rendu s'en fera l'écho. Nous aborderons de nouveau la question en séance avec le Gouvernement, car son avis est important.
La commission rejette l'amendement.
La commission adopte l'amendement rédactionnel CL452 de M. Guillaume Vuilletet, rapporteur.
Amendement CL414 de M. Philippe Latombe.
Cet amendement d'appel vise à ouvrir une discussion sur la différence entre une obligation de moyens et une obligation de résultat, s'agissant de l'alinéa 14.
Dans le cas d'un système d'intelligence artificielle reposant sur un apprentissage, il est très compliqué de valider sur le plan technique la notion d'obligation de résultat. On valide éventuellement un logiciel ou un traitement algorithmique au départ, mais en fonction de l'apprentissage, ils peuvent évoluer. Même si l'on demandait la publication du code, celui-ci évoluerait au fil de l'apprentissage. La question suivante nous est donc posée : optons-nous, à l'alinéa 14, pour une obligation de résultat ? Si oui, il faut assumer le fait qu'il soit impossible de recourir à un algorithme s'il a évolué et ne répond plus entièrement aux conditions de départ. La CNIL devra disposer des moyens de vérifier la conformité au fur et à mesure. D'autre part, si nous fixons au contraire une obligation de moyens, les alinéas 2 et 3 du V deviennent des barrières infranchissables.
Le groupe Démocrate penche plutôt en faveur d'une obligation de résultat, mais cela suppose que nous acceptions qu'un certain nombre de traitements algorithmiques fondés sur l'apprentissage ne seront pas aussi efficaces qu'on pourrait s'y attendre.
Il y a une forme de paradoxe dans votre démarche : en proposant d'inscrire dans le texte les mots « dans la mesure du possible », vous vous orientez plutôt vers une obligation de moyens… Je comprends l'idée, mais je crains que la rédaction que vous proposez n'affaiblisse la portée des garanties prévues à l'alinéa 14. Je demande le retrait de l'amendement ; à défaut, avis défavorable.
Nous voulions avoir une discussion sur ce point et connaître la position du rapporteur. Il s'agissait d'être sûrs que nous validions une obligation de résultat.
L'amendement est retiré.
Puis, la Commission examine, en application de l'article 88 du Règlement, les amendements à la proposition de loi relative au régime juridique des actions de groupe (n°862) (Mme Laurence Vichnievsky et M. Philippe Gosselin, rapporteurs)
Le tableau ci-dessous récapitule les décisions de la Commission :
Article | Amendement | Auteur | Groupe | Sort |
1er | 4 | M. ACQUAVIVA Jean-Félix | Libertés, Indépendants, Outre-mer et Territoires | Repoussé |
ap. 1er | 54 | M. VALLETOUX Frédéric | Horizons et apparentés | Repoussé |
ap. 1er | 100 | Gouvernement | Repoussé | |
1er bis | 98 | Gouvernement | Repoussé | |
1er bis | 103 (sous-amendement au 98) | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
1er bis | 99 | Gouvernement | Repoussé | |
1er bis | 104 (sous-amendement au 99) | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
1er bis | 38 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
1er bis | 81 | Gouvernement | Repoussé | |
1er bis | 80 | Gouvernement | Repoussé | |
1er bis | 106 (sous-amendement au 80) | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
1er bis | 108 (sous-amendement au 80) | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
1er bis | 1 | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
1er bis | 9 | M. PANIFOUS Laurent | Libertés, Indépendants, Outre-mer et Territoires | Repoussé |
1er bis | 12 | Mme UNTERMAIER Cécile | Socialistes et apparentés (membre de l'intergroupe NUPES) | Repoussé |
1er bis | 21 | M. COULOMME Jean-François | La France insoumise - Nouvelle Union Populaire écologique et sociale | Repoussé |
1er bis | 71 | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
1er bis | 13 | Mme UNTERMAIER Cécile | Socialistes et apparentés (membre de l'intergroupe NUPES) | Repoussé |
1er bis | 14 | Mme UNTERMAIER Cécile | Socialistes et apparentés (membre de l'intergroupe NUPES) | Repoussé |
1er bis | 26 | M. GUITTON Jordan | Rassemblement National | Repoussé |
1er bis | 27 | M. GUITTON Jordan | Rassemblement National | Repoussé |
1er bis | 10 | M. PANIFOUS Laurent | Libertés, Indépendants, Outre-mer et Territoires | Accepté |
1er bis | 18 | Mme UNTERMAIER Cécile | Socialistes et apparentés (membre de l'intergroupe NUPES) | Repoussé |
1er bis | 15 | Mme UNTERMAIER Cécile | Socialistes et apparentés (membre de l'intergroupe NUPES) | Repoussé |
1er bis | 17 | Mme UNTERMAIER Cécile | Socialistes et apparentés (membre de l'intergroupe NUPES) | Repoussé |
1er bis | 59 | M. SCHRECK Philippe | Rassemblement National | Repoussé |
1er bis | 58 | M. SCHRECK Philippe | Rassemblement National | Repoussé |
1er bis | 50 | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
1er bis | 64 rect. | M. GOSSELIN Philippe | Les Républicains | Accepté |
1er bis | 16 | Mme UNTERMAIER Cécile | Socialistes et apparentés (membre de l'intergroupe NUPES) | Repoussé |
ap. 1er bis | 82 | Gouvernement | Repoussé | |
1er ter | 84 | Gouvernement | Repoussé | |
1er ter | 76 | M. GOSSELIN Philippe | Les Républicains | Accepté |
1er ter | 83 | Gouvernement | Repoussé | |
1er ter | 60 | M. SCHRECK Philippe | Rassemblement National | Repoussé |
1er ter | 61 | M. SCHRECK Philippe | Rassemblement National | Repoussé |
ap. 1er ter | 85 | Gouvernement | Repoussé | |
1er quater | 86 | Gouvernement | Repoussé | |
1er quater | 51 | M. GOSSELIN Philippe | Les Républicains | Repoussé |
1er quater | 25 | M. COULOMME Jean-François | La France insoumise - Nouvelle Union Populaire écologique et sociale | Accepté |
1er quater | 29 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
1er quinquies | 31 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
1er quinquies | 30 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
1er quinquies | 87 | Gouvernement | Repoussé | |
1er quinquies | 23 | M. COULOMME Jean-François | La France insoumise - Nouvelle Union Populaire écologique et sociale | Repoussé |
1er sex ies | 63 | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
1er duodecies | 65 | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
1er duodecies | 32 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
1er quaterdecies | 67 | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
ap. 1er quindecies | 33 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
2 | 22 | M. COULOMME Jean-François | La France insoumise - Nouvelle Union Populaire écologique et sociale | Repoussé |
2 | 89 | Gouvernement | Repoussé | |
2 | 47 | M. GOSSELIN Philippe | Les Républicains | Accepté |
2 | 110 (sous-amendement au 47) | Gouvernement | Repoussé | |
2 | 34 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
2 | 77 | M. REBEYROTTE Rémy | Renaissance | Repoussé |
2 | 62 | M. SCHRECK Philippe | Rassemblement National | Repoussé |
2 | 8 | M. ACQUAVIVA Jean-Félix | Libertés, Indépendants, Outre-mer et Territoires | Repoussé |
ap. 2 | 48 rect. | M. GOSSELIN Philippe | Les Républicains | Accepté |
ap. 2 | 49 | M. GOSSELIN Philippe | Les Républicains | Accepté |
ap. 2 | 53 | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
ap. 2 | 69 | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
ap. 2 | 75 | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
2 bis | 72 | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
2 bis | 73 | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
2 quater | 74 | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
ap. 2 quater | 66 | M. GOSSELIN Philippe | Les Républicains | Accepté |
2 nonies | 3 | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
2 nonies | 52 | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
ap. 2 nonies | 45 | M. SABATOU Alexandre | Rassemblement National | Repoussé |
ap. 2 nonies | 102 | Gouvernement | Repoussé | |
ap. 2 nonies | 101 | Gouvernement | Repoussé | |
2 undecies | 92 | Gouvernement | Repoussé | |
2 undecies | 88 | Gouvernement | Repoussé | |
2 undecies | 24 | M. COULOMME Jean-François | La France insoumise - Nouvelle Union Populaire écologique et sociale | Repoussé |
2 undecies | 2 | M. HOUSSIN Timothée | Rassemblement National | Repoussé |
2 undecies | 91 | Gouvernement | Repoussé | |
2 undecies | 6 | M. PANIFOUS Laurent | Libertés, Indépendants, Outre-mer et Territoires | Repoussé |
2 undecies | 5 | M. ACQUAVIVA Jean-Félix | Libertés, Indépendants, Outre-mer et Territoires | Repoussé |
2 undecies | 7 | M. ACQUAVIVA Jean-Félix | Libertés, Indépendants, Outre-mer et Territoires | Repoussé |
2 undecies | 90 | Gouvernement | Repoussé | |
Chapitre II | 93 | Gouvernement | Repoussé | |
av. 2 duodecies | 94 | Gouvernement | Repoussé | |
ap. 2 duodecies | 70 rect. | Mme VICHNIEVSKY Laurence | Démocrate (MoDem et Indépendants) | Accepté |
ap. 2 duodecies | 95 | Gouvernement | Repoussé | |
2 terdecies | 96 | Gouvernement | Repoussé | |
2 quaterdecies | 40 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
2 quaterdecies | 68 | M. GOSSELIN Philippe | Les Républicains | Accepté |
2 quindecies | 97 | Gouvernement | Repoussé | |
2 sexdecies | 11 | M. ACQUAVIVA Jean-Félix | Libertés, Indépendants, Outre-mer et Territoires | Repoussé |
ap. 3 | 41 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
ap. 5 | 19 | Mme UNTERMAIER Cécile | Socialistes et apparentés (membre de l'intergroupe NUPES) | Repoussé |
ap. 5 | 43 | M. SABATOU Alexandre | Rassemblement National | Repoussé |
ap. 5 | 37 | M. LUCAS Benjamin | Écologiste - NUPES | Repoussé |
La séance est levée à 13 heures 15.
Membres présents ou excusés
Présents. - Mme Caroline Abadie, Mme Sabrina Agresti-Roubache, M. Pieyre-Alexandre Anglade, M. Erwan Balanant, M. Ugo Bernalicis, Mme Pascale Bordes, M. Ian Boucard, M. Florent Boudié, M. Xavier Breton, Mme Émilie Chandler, Mme Clara Chassaniol, M. Jean-François Coulomme, Mme Edwige Diaz, Mme Elsa Faucillon, M. Yoann Gillet, M. Philippe Gosselin, Mme Marie Guévenoux, M. Jordan Guitton, M. Benjamin Haddad, M. Sacha Houlié, M. Timothée Houssin, M. Jérémie Iordanoff, Mme Marietta Karamanli, Mme Emeline K/Bidi, M. Philippe Latombe, M. Gilles Le Gendre, M. Antoine Léaument, Mme Marie Lebec, Mme Gisèle Lelouis, M. Didier Lemaire, Mme Marie-France Lorho, M. Benjamin Lucas, M. Emmanuel Mandon, M. Christophe Marion, Mme Élisa Martin, M. Thomas Ménagé, M. Ludovic Mendes, Mme Danièle Obono, M. Didier Paris, M. Éric Pauget, M. Stéphane Peu, M. Jean-Pierre Pont, M. Éric Poulliat, Mme Marie-Agnès Poussier-Winsback, M. Philippe Pradal, M. Stéphane Rambaud, M. Rémy Rebeyrotte, Mme Sandra Regol, Mme Béatrice Roullaud, M. Thomas Rudigoz, M. Hervé Saulignac, M. Raphaël Schellenberger, M. Jean Terlier, Mme Cécile Untermaier, Mme Laurence Vichnievsky, M. Roger Vicot, M. Guillaume Vuilletet, M. Jean-Luc Warsmann, Mme Caroline Yadan
Excusés. - Mme Blandine Brocard, M. Éric Ciotti, M. Philippe Dunoyer, Mme Élodie Jacquier-Laforge, M. Mansour Kamardine, Mme Naïma Moutchou, Mme Andrée Taurinya
Assistaient également à la réunion. - M. Thibault Bazin, M. Belkhir Belhaddad, Mme Béatrice Bellamy, Mme Lisa Belluco, M. Fabien Di Filippo, Mme Stella Dupont, Mme Anne Le Hénanff, M. Stéphane Lenormand, M. Stéphane Mazars, M. Maxime Minot, M. Paul Molac