Nous ne pouvons pas théoriser le fait que ce que nous votons serait forcément inopérant. Nous faisons la loi, c'est-à-dire la règle commune. Nous ne pouvons pas constamment entretenir une forme de soupçon général consistant à dire que tout ce que nous allons voter ne servira à rien ou que nous avons l'intention d'en détourner l'objectif. Cela revient à nier notre propre rôle.
Le débat qui s'ouvre n'est pas médiocre. C'est la première fois que nous allons faire figurer dans un texte de loi l'utilisation de l'intelligence artificielle pour exploiter des images. Il faut se prémunir contre un certain nombre de risques, et nous pouvons avoir des divergences sur ce point.
Ces amendements de suppression témoignent d'une opposition de principe à l'utilisation des caméras augmentées même à titre expérimental, même en vue de l'organisation des JOP et même entourée de très nombreuses garanties. Celles-ci sont bien entendu légitimes et nécessaires, et elles ont été apportées à la suite des avis favorables rendus par la CNIL et par le Conseil d'État ainsi que lors de l'examen du texte au Sénat.
Nous allons avoir une discussion approfondie sur la centaine d'amendements déposés sur cet article. Je ne vais donc pas rentrer dès à présent dans le détail de chaque disposition. Je souhaite cependant rappeler quelques éléments qui me conduisent à donner un avis défavorable à ces amendements de suppression.
En premier lieu, les traitements algorithmiques dont il est question ont pour objet unique de détecter des événements prédéterminés, tels que des abandons de colis ou des mouvements de foules, afin de les signaler aux opérateurs des forces de l'ordre. L'article 7 interdit expressément toute technique d'identification biométrique ou de reconnaissance faciale. C'est un des apports de nos collègues sénateurs et, une fois encore, ce que nous votons a une portée.
Les agents, qui sont spécialement formés à cet effet – le texte le prévoit explicitement – visionneront en temps réel les images filmées par les caméras de vidéoprotection ou les caméras aéroportées sur lesquelles s'appliqueront ces traitements algorithmiques. Il s'agit donc d'une simple aide à la décision pour les forces de sécurité afin de repérer le plus tôt possible, et de la façon la plus précise possible, la survenue d'événements anormaux susceptibles de porter atteinte à la sécurité des personnes.
Cela va de soi mais je le précise : les systèmes d'intelligence artificielle ne prendront, par définition, aucune décision eux-mêmes.
À l'occasion des nombreuses et très riches auditions, les chercheurs ont généralement souligné que la physiologie de l'être humain ne lui permet pas de tout repérer, en particulier quand il s'agit de mouvements de foule. Des signes précurseurs permettent d'éviter ces derniers.
Les dispositifs prévus par ce texte ne seront mis en place que pour assurer la sécurité des grandes manifestations sportives, récréatives ou culturelles, sur les lieux concernés et dans les véhicules et emprises de transport public qui les desservent. Il s'agit donc de cibler des événements particuliers, et non de généraliser l'utilisation de ces traitements en tout temps et en tout lieu.
L'article 7 distingue quatre phases successives au cours desquelles la CNIL exercera un contrôle approfondi et permanent : le recours à ces traitements, leur développement, leur emploi sur le terrain et leur évaluation.
De nombreuses exigences sont prévues par le texte, qu'il s'agisse de l'encadrement de l'utilisation des données servant à entraîner les algorithmes, de l'analyse d'impact sur la protection des données qui doit être réalisée, de l'attestation de conformité qui devra être délivrée ou des modalités de la mise en œuvre de l'expérimentation.
Ce dispositif est prévu à titre expérimental. Je récuse le parti pris qui consiste, de façon un peu paradoxale, à craindre le toboggan vers une société orwellienne tout en déplorant avec certitude la prétendue inefficacité et inutilité des algorithmes.
Nous pourrons collectivement dresser le bilan de cet usage grâce à son évaluation objective et transpartisane. L'expérimentation prévue par l'article 7 ne doit pas préjuger de la pérennisation éventuelle de ces traitements : c'est pourquoi il convient d'en avancer le terme au 31 décembre 2024. J'ai déposé un amendement en ce sens.
Pour toutes ces raisons, les dispositions prévues par l'article 7 me semblent équilibrées, proportionnées à l'objectif poursuivi et assorties de très nombreuses garanties, indispensables à leur application. Je rendrai donc un avis défavorable.
Permettez-moi au passage de répondre à ceux qui doutent que nous aurions les moyens de développer ces outils dont la SNCF indiquait, il y a peu de temps, pouvoir disposer grâce aux laboratoires compétents dans ce domaine. Surtout, ces nouvelles technologies posent la question de notre souveraineté. Serons-nous capables, dans un avenir proche, de produire ces algorithmes et d'en contrôler l'usage ? Si ce n'est pas le cas, nous subirons des technologies élaborées par d'autres pays qui ne partagent pas nos valeurs. Il me semble donc préférable de contrôler et d'encadrer l'usage des nouvelles technologies plutôt que de les subir. La même difficulté se pose pour les outils que nous utilisons chaque jour, par exemple zoom. Je sais bien que nous sommes libres d'y avoir recours ou non mais, dès lors que ces produits sont à notre disposition, la question de leur usage se pose.