137 interventions trouvées.
J'ai bien entendu l'explication de M. le ministre sur le fait que la Cnil rendra son avis sur les algorithmes mais surtout sur les situations prédéterminées qui seront définies par le décret, et cet amendement conforte cette garantie en complétant l'alinéa 8 par les mots suivants : « à laquelle [la Cnil] l'intégralité du code du traitement aura été préalablement communiquée ». Car on ne sait pas à ce jour comment elle sera informée des situations prédéterminées. Nous souhaitons que le code du traitement...
...ctéristiques physiques ou sur des comportements considérés comme anormaux. En effet, la notion d'événements prédéterminés n'est pas précisée et encore moins la façon dont ils sont détectés par l'intelligence artificielle. Il apparaît donc nécessaire de préciser autant que possible les critères permettant la catégorisation des événements prédéterminés ainsi que le processus de l'apprentissage de l'algorithme.
Il s'agit d'un amendement d'appel et de clarification. En l'état de sa rédaction, s'agissant du contrôle des algorithmes, l'article impose une obligation de résultat à l'État. Je souhaiterais que le ministre le confirme, ce qui serait plus protecteur. Dans ce cas, je retirerai l'amendement.
Je partage l'analyse de mon collègue : les gens vont servir de cobayes pour améliorer l'algorithme et, en plus, ils ne seront même pas indemnisés. Ils vont être filmés sans l'avoir voulu et vont enrichir des entreprises sans que leur démarche ou leur « comportement de foule » soit rétribué. C'est vraiment lamentable…
J'en reviens à l'amendement. Nous proposons d'ajouter le mot « discriminatoires », pour éviter que ces algorithmes ne le soient, pour une raison simple. Aux États-Unis, on les a utilisés dans des quartiers populaires, et les algorithmes en ont conclu que les responsables de violences et de crimes étaient des personnes racisées – des personnes noires, notamment. Sans cette précision visant à protéger de la discrimination, notamment celle liée à la couleur de peau, vos algorithmes, monsieur Darmanin, deviendro...
Cet amendement vise à rendre transparents les codes intégrés aux algorithmes. Cela s'inscrit, me semble-t-il, dans la continuité de plusieurs mesures adoptées par l'Assemblée depuis une dizaine d'années, de manière généralement assez consensuelle, au sujet de dispositions sécuritaires potentiellement discriminatoires. Nos débats l'ont montré, le fait de renforcer la transparence, c'est-à-dire la libre consultation des codes, et donc la possibilité d'en rectifier les err...
Rendre public le code d'un l'algorithme serait contre-productif, voire très dangereux. Pourquoi ? Parce que les caméras algorithmiques ont pour principale vocation d'aider à lutter contre le terrorisme. Si demain, un terroriste s'empare du code de l'algorithme et sait exactement comment fonctionne la caméra algorithmique,…
Je dois avouer qu'en commission, j'ai moi-même pu faire la confusion entre le code de l'algorithme, son implémentation, sa finalité et les bases de données qui lui sont couplées. J'ai donc lu avec intérêt la littérature de la Quadrature du Net, qui explique que la plupart des codes utilisés dans les algorithmes sont en libre accès, et donc consultables par tous. La question est donc moins celle de leur consultation que celle de leur fonctionnement et de leur paramétrage. Il me semble, monsieu...
Il faut donc protéger les gens de cette collecte de leurs données biométriques, et il faut le faire d'autant plus que les algorithmes sont autoapprenants. Un retour hebdomadaire permet donc un contrôle suffisant à la fois de l'évolution de l'algorithme et de ses usages. Vous dites qu'on est d'accord ? Très bien, alors retirez le texte !
Nous avons déjà eu des discussions sur la conservation des données, sur leur usage ou sur l'expérimentation. L'alinéa 32 nous donne l'occasion de les poursuivre, puisqu'il prévoit que les algorithmes pourront être entraînés par des images issues des caméras de vidéosurveillance installées sur la voie publique pendant un an et demi, de la date de la promulgation de la loi jusqu'au 31 décembre 2024. Un an et demi ! Je rappelle que le délai maximal de conservation des données est normalement de trente jours. Il s'agit donc d'une dérogation assez violente au droit commun. Malgré ce que vous aff...
...er leur machine learning. Les articles du code de la sécurité intérieure évoquent des durées de conservation fixées entre sept jours et un mois. Ce délai est trop long pour des données aussi sensibles laissées aux mains du secteur marchand, dont la priorité n'est pas l'intérêt général, mais son propre intérêt – c'est factuel. Nous refusons que les données de nos concitoyens alimentent les algorithmes qui font de la surveillance de masse leur gagne-pain. Les gens ne sont pas des cobayes gratuits ! Nous ne devons pas les laisser à la disposition de sociétés privées qui vendent sans contrôle aux plus offrants, même s'il s'agit de régimes parmi les plus répressifs. Il y va du respect des droits les plus fondamentaux de nos concitoyens.
...ination pour comprendre que cela laisse le champ libre à de nombreuses dérives – pendant les Jeux olympiques, tout ne se passe pas aux heures de bureau ! Il faut donc permettre, par dérogation à la loi de 1978, un accès permanent à ces lieux pour pouvoir prévenir tout manquement aux dispositions de l'article 7. Il me semble que c'est bien votre intention. J'ai un peu étudié le fonctionnement des algorithmes. Des surcouches peuvent être installées sur leur interface afin d'occulter la petite coche « reconnaissance faciale » en cas de contrôle. Les données peuvent ainsi être traitées et réapparaître une fois les contrôles terminés. Il serait plus pratique que les agents de la Cnil puissent surgir à l'improviste et n'importe quand pour s'assurer que cette option, dont les entreprises développant les ...
Il est déjà prévu que la Cnil contrôle les algorithmes a priori, à travers une certification des logiciels qui couvrira le registre des traitements et la piste d'audit, c'est-à-dire la fonction permettant de traiter chacune des actions des opérateurs. Supposons que des données biométriques soient utilisées, contrairement à ce qui est prévu, puisque vous sous-entendez que c'est possible ; dans ce cas, la Cnil en trouvera la trace au cours de s...
Nous ne cessons de le dire, le fonctionnement et les usages possibles de ces algorithmes restent très opaques et il est très difficile à nos concitoyens d'obtenir des informations à ce sujet. Pour y remédier, et en gage de bonne volonté, Lisa Belluco vous propose de créer des comités locaux de suivi de l'expérimentation de la vidéosurveillance algorithmique. Ces comités seraient notamment composés de représentants d'associations et de collectivités – collectivités auxquelles vous av...
La vidéosurveillance par algorithme n'a fait l'objet ni d'un débat public national, ni d'une réflexion associant les citoyennes et les citoyens, alors que selon l'avis de la Cnil, il s'agit d'un tournant majeur pour notre pays, et non d'une simple évolution technologique. Dès lors, il est impératif de prendre le temps de décider collectivement si, oui ou non, nous souhaitons que notre société suive cette pente sécuritaire et nous ...
C'est vrai, le prix des billets s'y opposera ! En réalité, vous ne pouvez pas étendre le criblage à tous les spectateurs des épreuves des JO, parce que c'est matériellement et techniquement impossible. Mais si demain, cela devenait envisageable, grâce à des algorithmes de croisements de fichiers, comme en utilisent d'autres pays qui ont mis à peu près tout le monde dans des cases par ce moyen, vous nous proposeriez de le faire et vous le feriez. Nous sommes là aussi pour rappeler les principes de proportionnalité et de nécessité lorsqu'il est question de mener ce type d'enquête. Dans le cas présent, en plus d'être inefficace, le dispositif va trop loin. Nous ...
L'alinéa 5 de l'article 7 dispose que l'algorithme qui sera utilisé dans le cadre de cette fausse expérimentation n'utilisera aucun système d'identification biométrique et ne traitera aucune donnée biométrique. Nous nous trouvons face à une parole performative, car, malgré cette formulation rassurante et les affirmations rabâchées de manière presque mécanique par le Gouvernement et par la majorité, qui ne cessent de relire ce paragraphe comme si ...
Elle a pourtant rappelé explicitement que la détection de comportements dits anormaux se fondait sur des données biométriques. L'algorithme va permettre de reconnaître des personnes, sans nécessairement les identifier. Reconnaître signifie fournir une description suffisamment détaillée pour permettre aux agents sur le terrain de repérer une personne. Il y a donc, nécessairement, utilisation de données biométriques. L'article 7 est donc inopérant : il interdit ce qu'il met en place. Nous proposons donc de le supprimer plutôt que de cr...
...que. Ce projet de loi ne s'en tient pas à servir les intérêts des entreprises du secteur des technologies de surveillance. En ouvrant la porte à la vidéosurveillance par traitement algorithmique, ces logiciels pourront filmer potentiellement n'importe lequel de nos concitoyens et catégoriser de manière totalement arbitraire un comportement parmi ceux à risque – nous savons d'ores et déjà que ces algorithmes induisent des biais discriminatoires aux relents racistes et validistes. Derrière la façade de la tolérance, du sport et du partage, les Jeux olympiques et paralympiques (JOP), par leur exceptionnalité, risquent bel et bien de permettre le tout-sécuritaire et de le sanctuariser. Avec ce projet de loi qui surenchérit en la matière, la France gagne sa place de championne européenne de la législat...