23 interventions trouvées.
...ement soumises à la vidéosurveillance. Or, vous en conviendrez, monsieur le président de la commission, elles ne sont pas des terroristes en puissance et doivent être informées de cette atteinte à leur liberté fondamentale. Le droit au respect de la vie privée des habitants des communes qui utilisent la VSA doit être garanti. Ils doivent donc être informés du fait qu'ils seront filmés et que les images sur lesquelles ils apparaîtront seront exploitées par des algorithmes.
Cet amendement rédactionnel vise à s'assurer que les personnes qui assisteront aux Jeux olympiques et paralympiques seront clairement informées du traitement algorithmique des images sur lesquelles elles apparaîtront. Je propose d'ajouter les mots « et explicitement » au troisième alinéa, dont le début serait donc ainsi rédigé : « Le public est préalablement et explicitement informé par tout moyen approprié de l'emploi de traitements algorithmiques sur les images collectées au moyen de systèmes de vidéoprotection […]. » Vous le savez, chers collègues, ces questions sont par...
...sibilité de l'information pour les personnes en situation de handicap, notamment les personnes en situation de handicap intellectuel, et je salue le travail mené par les associations qui défendent leurs droits, en particulier, dans ma circonscription, l'association Droits Devant 25. L'alinéa 3 de l'article 7 crée l'obligation d'informer le public de l'emploi de traitements algorithmiques sur les images collectées au moyen de systèmes de vidéoprotection. Avec cet amendement, nous demandons que l'information soit « appropriée, adaptée et accessible à toute personne en situation de handicap » et nous défendons le droit à l'information pour tous sans aucune distinction.
... impossible de s'opposer, de faire rectifier ou de faire valoir ses droits ; c'est tout de même un peu problématique dans un État de droit. Autrement dit, nous sommes prêts, en l'état du texte, à espionner la population à son insu, sans qu'elle ait le moindre droit de recours. Nous proposons donc que le public soit informé de manière systématique de l'usage d'outils d'analyse automatisée sur ses images, dans un objectif de transparence à son égard et de respect de ses droits. Le présent amendement vise ainsi à supprimer la dispense d'information du public concernant l'usage de caméras de vidéosurveillance algorithmique.
...l utilise beaucoup les nouvelles technologies : il fut l'un des premiers festivals à utiliser des bracelets à puce pour permettre notamment les entrées et le paiement des consommations, afin d'éviter que les festivaliers aient du liquide sur eux ou se fassent voler leur carte bancaire. On y a aussi expérimenté les premières antennes 5G et plusieurs laboratoires d'universités viennent y capter des images pour analyser les mouvements de foule et voir quelles conséquences ils peuvent en tirer ;…
…ils cherchent en particulier à les mathématiser afin d'être en mesure de les anticiper. Je n'ai jamais dit que c'était fait pour entraîner des algorithmes de VSA – la vidéosurveillance augmentée, comme vous l'appelez ; ce n'est absolument pas le cas. C'est d'ailleurs au Hellfest que l'Institut national de recherche en sciences et technologies du numérique (Inria) vient capter des images pour essayer d'entraîner un algorithme qui permettrait de gérer les foules – c'est son fameux GPS de gestion des foules. Et si ses chercheurs parviennent à le mettre au point, il sera d'ailleurs en open source – source ouverte. Cela fait écho à ce qu'Éric Bothorel voulait et il a ainsi retiré son amendement : s'il y a des laboratoires qui déposent des brevets et des entreprises qui les achètent...
...ie des propos qui peuvent être tenus dans cette enceinte. Nous discutons d'un grand défi : sécuriser l'organisation des Jeux olympiques dans notre pays, en menant une expérimentation dont nous aurons à tirer un bilan et les conséquences, afin de déterminer si nous voulons ou non la pérenniser ou l'adapter. Notre collègue explique que nous allons essayer d'utiliser ce traitement algorithmique des images captées par la vidéoprotection pour détecter des sweats à capuche. Nous sommes en train de parler de la sécurisation des Jeux olympiques durant lesquels des centaines de milliers de spectateurs vont venir sur les sites des compétitions en famille, avec des enfants et des adolescents. Et notre collègue d'expliquer que notre volonté serait d'identifier des personnes en sweat à capuche dans je ne s...
Allez-vous faire clignoter les passages de vélo un peu partout ? Ces questions se posent. Quant aux drones dont vous parlez, monsieur le ministre, j'aimerais savoir à qui ils appartiennent. Je n'ai pas vu d'images prises depuis les drones, mais des drones filmés par des gens.
Je n'ai rien contre la technologie et les algorithmes en eux-mêmes, mais j'ai des critiques à émettre sur les usages qui en sont faits, notamment par la puissance publique. Je n'ai donc pas de difficulté à dire qu'il existe un corpus législatif cohérent concernant la captation d'images par les personnes privées. Il fonctionne et je ne trouve rien à y redire. Si certains font un usage illégal de captations vidéo, faites usage de la loi en vigueur pour les confondre. Au lieu de ça, on arrête des gens parce qu'ils sont là et que ce sont les ordres, tout en s'excusant et en leur disant qu'ils seront rapidement libérés. Effectivement, je défends les libertés fondamentales. Monsie...
Que donnent, vues du ciel, les images des brigades de répression de l'action violente motorisées (BRAV-M) qui courent, tapent dans le tas et font des croche-pieds aux manifestants pour les faire tomber ? Il pourrait effectivement être intéressant de disposer d'un autre angle de vue pour voir comment la répression et la brutalité policières que vous avez demandées s'organisent. C'est une question sérieuse.
Je rappelle que la Cnil indique, dans son avis du 8 décembre 2022, que les outils d'analyse automatisée des images sont, à ses yeux, susceptibles d'entraîner des risques importants pour les libertés individuelles et collectives. Le Conseil national des barreaux (CNB), quant à lui, « dénonce la mise en place prétendument expérimentale d'un système d'intelligence artificielle traitant […] des données comportementales et physiques des individus à des fins répressives, à l'instar de systèmes comparables mis en p...
...nge, mais c'est la thèse que vous défendez. La réalité, c'est que les outils devront forcément être capables de détecter la présence de corps – ou plus précisément l'absence de corps s'il s'agit de détecter, par exemple, un colis inerte. Ils devront donc inévitablement collecter des données biométriques. Cela ne signifie pas que les personnes seront identifiées, ce qui supposerait de croiser les images avec des fichiers comme le traitement d'antécédents judiciaires (TAJ) ou le registre des cartes nationales d'identité (CNI), mais que les logiciels pourront les isoler et déterminer combien d'individus se trouvent à un endroit donné, ce qui permettra en retour aux forces de l'ordre de définir ce qu'est une foule – un attroupement de plus de huit ou dix personnes, par exemple, comme c'était le ca...
Je comprends qu'on préfère me répondre sur les goélands ou sur les drones qui seraient utilisés par les manifestants – j'attends d'ailleurs que vous me transmettiez les références en question, monsieur le ministre, car je serais intéressé par le visionnage de ces images, qui sont visiblement diffusées sur les réseaux sociaux –,…
...mportements sont une des données biométriques prises en compte. Quelle que soit la façon dont vous présentez le problème, ce sont donc bien des données à caractère biométrique qui seront traitées. C'est dangereux car, dans le dispositif que vous nous présentez, aucun moyen technique permettant d'éviter le traitement des visages n'est mentionné. Certes les visages seront peut-être floutés sur les images que verront les agents et celles-ci ne seront peut-être pas exploitées à l'instant T. Néanmoins, ces données seront traitées.
D'ailleurs, s'agissant du processus d'apprentissage – puisque je sais que vous prenez en considération l'opérateur humain –, lorsqu'un voyant clignotera parce que l'algorithme aura détecté un événement prédéterminé, l'opérateur procédera à une vérification, à une levée de doute soit en visionnant lui-même les images soit en envoyant des équipes sur place. Ensuite, si l'incident est réel, il le traitera, sinon il le clora. Cette décision – la validation ou non du problème – viendra alors enrichir l'algorithme en améliorant sa capacité à sélectionner les événements qu'il signalera à l'avenir à l'opérateur. Dès lors, si celui-ci a un biais discriminatoire, l'algorithme le reproduira pour favoriser les événemen...
La possibilité d'exploiter des images captées par vidéosurveillance algorithmique a posteriori est une autre atteinte aux droits des personnes. En effet, l'image de ces dernières ne sera plus seulement utilisée pour des raisons présumées de sécurité mais aussi pour l'apprentissage d'une intelligence artificielle à des fins commerciales. Il s'agit là d'une dérive inacceptable qui, sous prétexte de sécurité, place le profit ava...
...d'intérêts des entreprises qui vont gérer ces données hautement sensibles et où vous opposez un refus systématique à nos demandes visant à donner à la population plus de moyens d'information. Je rappelle que l'efficacité des systèmes fondés sur le tout-vidéo, le tout-technologique ou le tout-automatique pour la protection des personnes n'a été prouvée par aucune étude. On sait, bien sûr, que ces images peuvent être utilisées a posteriori, mais il me semble que vous nous avez dit que ce ne serait pas le cas. La technique proposée par ce texte constitue donc une menace pour les libertés publiques, comme la liberté d'expression – ce n'est pas un petit sujet, à l'heure où je parle et où des millions de personnes défilent dans les rues et s'exposent à la répression : je n'ose imaginer ce qu...
...lisée durant cette période. Nous proposons donc d'ajouter cette condition de nécessité, laquelle nous paraît indispensable étant donné que le travail de terrain pourrait être valorisé. Comme nous ne disposons pas de preuves du bon fonctionnement de cette technologie, la communication et la prévention des dangers et des violences sont pour nous la priorité – plutôt que de permettre d'utiliser les images a posteriori. Si nous n'avions pas besoin d'utiliser les images a posteriori, nous n'aurions pas besoin de les conserver aussi longtemps.
Nous avons déjà eu des discussions sur la conservation des données, sur leur usage ou sur l'expérimentation. L'alinéa 32 nous donne l'occasion de les poursuivre, puisqu'il prévoit que les algorithmes pourront être entraînés par des images issues des caméras de vidéosurveillance installées sur la voie publique pendant un an et demi, de la date de la promulgation de la loi jusqu'au 31 décembre 2024. Un an et demi ! Je rappelle que le délai maximal de conservation des données est normalement de trente jours. Il s'agit donc d'une dérogation assez violente au droit commun. Malgré ce que vous affirmez, le détournement des finalités af...