202 interventions trouvées.
La VSA est très exactement ce dont nous parlons : la vidéosurveillance algorithmique. De même qu'il n'y a jamais eu de véritable étude sur les conséquences et l'utilité de la vidéosurveillance « tout court », aucun débat public national ni aucune réflexion impliquant les citoyens dans les choix à réaliser n'ont eu lieu sur la VSA. Pourtant, selon la CNIL, il s'agit d'un tournant majeur et non d'une simple évolution. Il convient donc de prendre le temps de demander à la population si, oui ou non, elle accepte de jouer les cobayes pour nourrir des algorithmes en temps réel. Je rappelle à nouveau que selon l'une de vos collègues, les mesures dérogatoires et d'expérimentation n'avaient pour fonction que de permettre une pérennisation. Nous avons don...
Monsieur Vicot, je pense que la surveillance ne se limitera pas à la détection des bagages abandonnés ; elle pourrait s'étendre à la détection des mouvements de foule. Laissons la CNIL faire son travail et n'outrepassons pas notre fonction. Madame Martin, je vous rappelle que ces événements prédéterminés seront précisés par un décret pris après avis de la CNIL, comme le prévoient expressément les alinéas 8 et 9. Il s'agit d'un décret simple : dans son avis rendu sur le projet de loi, le Conseil d'État n'a pas proposé qu'un décret exigeant sa consultation obligatoire définisse...
...recteurs d'administration centrale nous expliquer qu'il ne faudrait pas que cela se sache trop, parce que les méchants voyous, s'ils savent ce qu'on surveille, ne vont pas commettre leurs infractions. Il me semble que l'objectif est précisément d'éviter les incidents ! À tout prendre, il vaut mieux qu'ils sachent ce qu'ils n'ont pas le droit de faire ! On ne peut pas se contenter d'un avis de la CNIL. Depuis le début de ces débats, on fait comme si tout le monde s'entendait sur ce qu'est un comportement anormal. Or ce qui est anormal pour vous ne l'est peut-être pas pour moi, et inversement.
L'alinéa 9 prévoit que le décret pris après avis de la CNIL précisera les « conditions d'habilitation des agents pouvant accéder aux résultats des traitements ». Par coordination, je propose de préciser que seuls des « agents individuellement désignés et dûment habilités » pourront, au sein des services autorisés, utiliser des traitements algorithmiques.
Nous allons tenter de faire un peu de pédagogie sur l'effet cliquet des textes successifs, lequel rogne peu à peu les libertés publiques et individuelles. Face au développement de la vidéosurveillance et de la collecte de données, la CNIL devait représenter une garantie pour les citoyens, en leur assurant la possibilité de consulter les données qui les concernent et de s'opposer à leur conservation. Ensuite, le législateur a instauré des exceptions suspendant l'application de cette garantie. La loi de 1978 prévoit des obligations d'information du public lorsqu'une caméra est installée dans un lieu public, mais on imagine sans pein...
L'information claire et permanente du public sur l'existence de dispositifs de surveillance est une garantie essentielle pour les droits et les libertés, comme la CNIL l'a explicitement rappelé. Le code de la sécurité intérieure prévoit cette garantie, qui est un préalable à toute contestation. Pourtant l'article 7 ne précise pas que cette information doit être claire et permanente. L'amendement vise donc à inscrire ces caractéristiques dans le texte, afin de s'assurer qu'il n'y sera pas dérogé et que les droits seront respectés partout dans le territoire. En ...
Ce texte ouvre la porte à toutes les dérives car il prévoit des dérogations peu encadrées et floues à l'information du public sur l'usage de la surveillance fondée sur l'intelligence artificielle. La rédaction actuelle de l'article autorise des dérogations au droit à l'information – droit essentiel, selon la CNIL qui n'a pas été entendue, à une garantie minimale des droits fondamentaux et des libertés publiques – « lorsque les circonstances l'interdisent ou que cette information entrerait en contradiction avec les objectifs poursuivis », selon les termes de l'alinéa 3. Cela pose plusieurs problèmes. Tout d'abord, on ne voit pas dans quelles circonstances ou pour quels objectifs l'existence de ces caméras...
La CNIL intervient en amont de la délivrance de l'attestation de conformité ; en outre, un contrôle s'exerce à chaque étape ; enfin, le code de l'algorithme n'apparaît pas dans les textes incidemment : s'il y a bien quelque chose qui pourrait servir aux terroristes, ce serait la maîtrise du code de l'algorithme et des moyens de le contourner. Je ne soutiendrai bien entendu pas ces amendements. Pour être...
Preuve en est, les dispositifs d'intelligence artificielle testés sur les réseaux sociaux sont rapidement devenus des monstres acharnés de haine : ils n'apprennent pas et sont confrontés à une accumulation d'informations allant dans le sens voulu par leurs créateurs. Dans son avis du 8 décembre sur le projet de loi, la CNIL considère que les outils d'analyse automatisés des images peuvent entraîner des risques importants pour les libertés individuelles et collectives, ainsi qu'un risque de surveillance et d'analyse dans l'espace public : on ne peut pas dire qu'elle soutienne franchement votre dispositif. Le Conseil d'État estime que le traitement des images est susceptible de mettre en cause la protection de la vie ...
La CNIL comme le Conseil d'État ont remarqué que l'analyse des images et le recours à l'intelligence artificielle posaient des questions de libertés publiques, qui exigeaient de trouver un équilibre entre la sécurité des personnes et le respect des données personnelles et des libertés publiques. C'est bien pour cela que l'article 7 offre les garanties nécessaires à l'usage de la surveillance par intellig...
...e ouvert ; contrairement à ce que vous dites, l'ouverture du code source empêche son piratage, tout en offrant des garanties démocratiques. J'avais rencontré au salon annuel de la cybersécurité à Lille le collectif YesWeHack, qui agit efficacement dans ce domaine. C'est utile au débat public de savoir que la transparence du code a des vertus, y compris dans la lutte contre le piratage. La CNIL et la Défenseure des droits expliquent que l'usage des algorithmes porte en lui des biais de discrimination, pour l'identification desquels il faut avoir accès au code, sinon seules des constatations a posteriori – sur le fait que les personnes portant un sweat à capuche, par exemple, sont systématiquement surveillées – seront possibles. J'étais très favorable à l'amendement de réécriture ...
...nal Institute of Standards and Technology – américain ; le NIST fait tourner les algorithmes à partir d'un jeu de données et sait exactement les informations qu'il doit et celles qu'il ne doit pas récupérer : c'est une façon de prouver que l'algorithme est loyal, ne comporte pas de biais et ne peut pas déboucher sur des discriminations. Développer un tel dispositif est faisable en France ; la CNIL s'est dotée d'un service d'intelligence artificielle justement pour exercer ces contrôles. Ne jetez pas une suspicion généralisée en demandant d'ouvrir le code pour ne pas avoir de biais. Si vous demandez à Google d'ouvrir son code, celui-ci ne vaudra plus rien.
Non, le sujet n'est pas l'argent, mais l'efficacité du contrôle. La CNIL peut l'effectuer sans avoir accès à la totalité du code, simplement en disposant d'un jeu de données permettant de déterminer précisément ce que seront les résultats.
L'amendement a pour objet de circonscrire la mesure dans le temps : elle doit s'appliquer seulement pendant la durée des Jeux olympiques et paralympiques. Le texte porte sur l'organisation des JO de 2024 ; il ne doit pas servir de prétexte pour inscrire dans le droit, de manière pérenne, des mesures liées à un événement de grande ampleur et appelant des mesures de sécurité exceptionnelles. La CNIL relève, par ailleurs, que la possibilité offerte aux agents de visualiser davantage d'images en temps réel ne doit pas conduire à étendre leurs compétences, telles que définies par les textes, ou à leur permettre d'utiliser les images transmises à d'autres fins que celles prévues. En l'absence de ces garanties, il ne semble pas pertinent de pérenniser cette disposition.
...sez facilement, car celui-ci aura changé dès le lendemain, et vous n'aurez pas la capacité technique d'aller l'investiguer pendant ces vingt-quatre heures. Le véritable enjeu, s'agissant de l'intelligence artificielle, est de s'assurer qu'il n'y a pas de biais, que le traitement est loyal. Une manière assez simple de le faire est de donner des jeux de données standardisés, sous le contrôle de la CNIL. C'est ce qui est prévu dans l'article. Ainsi, on sait exactement ce qu'il y a dedans, on connaît les résultats positifs que l'on peut en attendre, ainsi que les résultats négatifs que l'on souhaite éviter. Les spécialistes que nous avons interrogés nous l'ont bien dit : il faut plusieurs jours, parfois même des mois pour analyser un code. Nous ne nous en sortirons donc qu'en ayant des jeux de d...
Je me souviens de l'audition en question. En effet, le représentant de l'ACN a été très clair sur ce qu'il aimerait avoir – mais nous ne le lui donnons pas. C'est pour cela que nous prévoyons le contrôle de la CNIL et l'établissement d'une attestation ; des engagements sont pris. Notre rôle de législateur est de fixer des limites : une entreprise qui utiliserait des données de façon frauduleuse encourrait les sanctions prévues par la loi.
...nnées telles que la couleur de peau ne seront pas utilisées car le texte exclut explicitement le recours aux données biométriques et à la reconnaissance faciale. Quant à votre proposition de cantonner l'utilisation de l'algorithme aux bagages abandonnés, nous considérons qu'il ne faut pas limiter le dispositif. Les usages possibles seront clairement établis et figureront dans l'attestation de la CNIL.
Il est prévu que l'application d'un traitement algorithmique sur des images de vidéosurveillance fasse l'objet d'une autorisation par décret, après avis de la CNIL. La procédure n'est pas assez contraignante : l'autorité administrative pourrait tout à fait ignorer cet avis. Le caractère sensible des données traitées – il s'agit d'images captées par des caméras installées sur la voie publique – nécessite pourtant un contrôle étroit afin d'éviter toute dérive. Nous proposons donc de rendre obligatoire un avis conforme de la CNIL. La commission pourra ainsi s'...
La CNIL n'a pas vocation à rendre des avis conformes, susceptibles de bloquer l'action du pouvoir réglementaire. Elle ne l'a jamais fait et ce n'est pas son rôle. Le Gouvernement prendra en responsabilité les décrets qui s'imposent, dans la limite de ses compétences et sous le contrôle du juge administratif. Nous verrons un peu plus loin, s'agissant du criblage, que des enquêtes administratives seront m...
Nous poursuivons la même discussion – même si, j'en conviens, elle n'est pas vulgaire : la question mérite d'être éclaircie. Nos débats sont importants, car ils peuvent servir à interpréter le dispositif. La CNIL fera l'usage de ses très nombreuses prérogatives, conformément à la loi « informatique et libertés », et elle exercera un contrôle durant toutes les phases de l'expérimentation, comme il est prévu à l'alinéa 33. Par ailleurs, dans son avis, la CNIL n'a pas sollicité l'intégralité du code du traitement. Avis défavorable.