Ce site présente les travaux des députés de la précédente législature.
NosDéputés.fr reviendra d'ici quelques mois avec une nouvelle version pour les députés élus en 2024.

Interventions sur "image"

189 interventions trouvées.

Photo issue du site de l'Assemblée nationale ou de WikipediaJean-François Coulomme :

L'alinéa 32 prévoit que les images mentionnées au I de l'article, dont la durée de conservation n'est pas expirée, peuvent être utilisées comme données d'apprentissage des traitements, dans les conditions prévues à ce même article, jusqu'à l'expiration de leur durée de conservation. Vous vous apprêtez ainsi à transmettre des images qui sont de véritables bases de données. Rien n'empêcherait des entreprises d'apprentissage automat...

Photo issue du site de l'Assemblée nationale ou de WikipediaUgo Bernalicis :

Pour renforcer son efficacité, l'algorithme a besoin d'être nourri par des données. Or les données, c'est nous – ou tout du moins, les images que les caméras auront prises de nous. Les entreprises, que nous aurons payées, revendront ensuite à d'autres leur solution technologique, enrichie de ces bases de données. Rien ne les en empêchera ! Combien les gens filmés seront-ils rémunérés pour leur participation à l'enrichissement d'autrui ? Auront-ils droit à un retour sur investissement ?

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

...ent récrit l'alinéa 32 afin de permettre l'utilisation des données captées par les systèmes de vidéoprotection et les caméras installées sur des aéronefs – les drones – comme données d'apprentissage des traitements algorithmiques mis en œuvre dans le cadre de l'expérimentation. La rédaction actuelle prévoit que cette utilisation ne peut avoir lieu au-delà de la durée de conservation initiale des images, soit un mois pour les systèmes de vidéoprotection et sept jours pour les drones. Cette limitation n'est cependant pas cohérente avec le fonctionnement opérationnel des traitements algorithmiques, puisqu'elle empêche une réutilisation efficace des données à des fins d'apprentissage et l'amélioration de la performance de ces traitements. Par exemple, elle ne permettrait pas de conserver des imag...

Photo issue du site de l'Assemblée nationale ou de WikipediaÉlisa Martin :

À plusieurs reprises, nous vous avons alertés sur le fait que la vidéosurveillance algorithmique (VSA) allait à l'encontre de la tradition française. Avec ce que vous proposez, on irait encore plus loin, puisqu'on ne prendrait même plus en considération la durée de conservation des images et qu'on utiliserait le caractère exceptionnel de l'événement pour permettre aux industriels d'utiliser des images qui ne leur appartiennent pas pour améliorer leur logiciel. Pour abonder dans le sens d'Ugo Bernalicis, il serait d'ailleurs logique qu'il y ait une rétribution pour cela, puisque la rentabilité du produit s'en trouvera accrue. Comment l'État français compte-t-il se faire rémunérer ...

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

Aucune identification ne sera possible à l'aide des images : comment des personnes qui ne sont pas identifiées pourraient-elles être rémunérées ? Les données seront transmises de façon ciblée, avec une forme d'écrémage, de sorte qu'elles ne puissent nourrir que les algorithmes qui auront été définis. Que le même fournisseur soit confronté exactement au même cas d'usage est une hypothèse purement théorique.

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

...oriste ne puisse avoir lieu et qu'aucun incident ne se produise à la suite de mouvements de foule durant tous les événements qui se dérouleront pendant cette période. Il ne faut pas prendre les apprentis terroristes pour des benêts : s'ils ne peuvent pas nuire sur un stade olympique, ils chercheront à le faire ailleurs. Les algorithmes ont besoin d'un apprentissage à partir de bases de données d'images de foules – et non d'individus – afin de pouvoir signaler aux forces de l'ordre des événements anormaux. Il n'y a aucune ambiguïté.

Photo issue du site de l'Assemblée nationale ou de WikipediaYoann Gillet :

...çais la cherchent, la réclament, la souhaitent. Or l'insécurité explose dans notre pays. L'organisation des Jeux olympiques et paralympiques rend cruciale cette question. Au vu des défaillances majeures constatées en mai 2022 au Stade de France, le groupe Rassemblement national réclame des actions concrètes et adaptées pour assurer la sécurité intérieure du pays. Le traitement algorithmique des images de vidéosurveillance, prévu à titre expérimental par l'article 7, est un outil indispensable pour identifier les risques qui pourraient menacer la sécurité des personnes pendant cette manifestation internationale. Si ce dispositif facilite la tâche des hommes et des femmes qui assurent notre sécurité au quotidien, pourquoi ne pas le maintenir au-delà de la période d'expérimentation ? S'il est ef...

Photo issue du site de l'Assemblée nationale ou de WikipediaYoann Gillet :

L'alinéa 34 instaure un dispositif d'évaluation pluridisciplinaire et objective de l'expérimentation des traitements algorithmiques d'images de vidéoprotection. Cette évaluation associe deux députés et deux sénateurs désignés par les présidents respectifs des deux chambres. La procédure pourrait laisser planer un doute sur l'impartialité de l'évaluation. Vu l'importance des enjeux de sécurité liés aux Jeux olympiques et paralympiques, il est primordial que l'ensemble des forces politiques représentées au Parlement puissent avoir leu...

Photo issue du site de l'Assemblée nationale ou de WikipediaLisa Belluco :

Nous nous opposons à l'ensemble de cette expérimentation et, a fortiori, à la captation par des drones d'images et de données de vidéosurveillance. Les drones peuvent capter énormément de données, on ne sait pas s'il y aura assez d'humains pour les traiter et on ne sait toujours pas, non plus, ce qui en sera fait.

Photo issue du site de l'Assemblée nationale ou de WikipediaJérémie Iordanoff :

Nous demandons un rapport sur l'impact environnemental de la vidéosurveillance algorithmique. Les technologies ayant recours à l'intelligence artificielle nécessitent en effet une quantité importante d'énergie pour fonctionner – a fortiori lorsque les données traitées sont des images. À titre d'exemple, pour ChatGPT, qui recourt au deep learning grâce à des milliards de données, il a fallu un térawattheure pour l'entraînement de plusieurs réseaux de neurones ; la quantité d'équivalent CO2 rejetée est de plus de 500 tonnes – sachant que 1 tonne correspond à un aller-retour Paris-New York. Pour rappel, à l'horizon 2050, chaque Européen devra rejeter moins de 2 tonnes d'...

Photo issue du site de l'Assemblée nationale ou de WikipediaÉlisa Martin :

L'article L. 242-3 du code de la sécurité intérieure dispose que le public est informé par tout moyen approprié de l'emploi de dispositifs aéroportés de captation d'images et de l'autorité responsable de leur mise en œuvre, « sauf lorsque les circonstances l'interdisent ou que cette information entrerait en contradiction avec les objectifs poursuivis ». La restriction est si vague qu'elle peut s'appliquer à n'importe quelle situation. Vous objecterez que nous sommes irresponsables et que nous ne nous soucions que fort peu de la sécurité des Jeux olympiques et par...

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

S'il est utile de prévoir que l'entraînement des traitements algorithmiques est soumis au RGPD et à la loi du 6 janvier 1978, il convient de préciser que ce sont ces traitements, lors de la phase de conception, qui sont assujettis au respect de ces dispositions. L'article 6 du projet de loi prévoit déjà de soumettre les systèmes de vidéoprotection, dont les images captées peuvent être utilisées à des fins d'apprentissage des traitements algorithmiques, au respect du RGPD et de la loi du 6 janvier 1978, ces images étant assimilées à des données à caractère personnel. Il est donc proposé de reformuler cet alinéa pour indiquer que les traitements algorithmiques sont soumis au RGPD et à la loi du 6 janvier 1978, y compris pendant leur conception.

Photo issue du site de l'Assemblée nationale ou de WikipediaPhilippe Latombe :

...ussion, je propose de préciser clairement que le droit d'opposition ne s'appliquera pas. Les députés du groupe Démocrate estiment qu'il revient plutôt au pouvoir administratif de déroger au droit d'opposition, et qu'il doit le faire au cas par cas. Si nous suspendons le droit d'opposition dans la loi, nous devrons le faire de façon absolue, pour toute la période considérée, et pour l'ensemble des images qui seront prises : ce serait donc beaucoup trop attentatoire aux libertés. Cet amendement d'appel, je le répète, vise surtout à ouvrir la discussion, pour que le rapporteur et le Gouvernement nous disent quelle est leur position.

Photo issue du site de l'Assemblée nationale ou de WikipediaUgo Bernalicis :

Nous proposons, à titre expérimental et jusqu'au 8 septembre 2024, de rendre passible de trois ans de prison et 45 000 euros d'amende le fait pour une personne physique ou morale de mettre en œuvre dans l'espace public un traitement automatique des images au moyen d'un algorithme. L'article 6 adopté ce matin a modifié l'article L. 254-1 du code de la sécurité intérieure en sorte que n'est plus considérée comme infraction que la seule entrave à l'action de la commission départementale de vidéoprotection. Il serait dommage d'omettre dans cette catégorie le fait d'installer un système de vidéosurveillance dans des lieux non autorisés ou de l'équipe...

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

Les contre-pouvoirs sont une nécessité. Toute décision doit pouvoir faire l'objet d'un recours. Ce que propose notre collègue, c'est de supprimer le droit d'opposition des citoyens en cas d'utilisation de leur image. Cette proposition est très dangereuse ; elle est contraire aux principes de notre système démocratique. Je suis assez choquée que l'on puisse aller jusque-là, sachant qu'on supprime par ailleurs le droit de recours de la population, le droit de recours associatif et le droit d'information. Cet amendement illustre les dérives que pourrait causer ce texte, malgré le RGPD – qui a constitué, je le ...

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

Le terme « préalable » renvoie à une temporalité non à un périmètre ; des arrêtés préciseront la délimitation de ceux-ci, y compris pour les drones dont les images feront l'objet d'un traitement algorithmique. Oui, les gens seront informés en temps et en heure.

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

...ez à chaque fois de nous rassurer en disant que cette exigence est implicitement posée, mais votre refus systématique de l'expliciter est inquiétant. Le devoir d'information n'est pas anecdotique car il permet de s'opposer à la surveillance, notamment par le dépôt de recours ; en cas de litige, les personnes, quels que soient leur pays d'origine, leur langue ou leur handicap, peuvent utiliser les images si elles ont été informées qu'elles y figuraient.

Photo issue du site de l'Assemblée nationale ou de WikipediaDanièle Obono :

L'amendement CL302 vise à supprimer la fin de l'alinéa 3 de l'article. L'enregistrement de données soumises à des traitements algorithmiques exige une information du public concerné, dont le principe ne doit souffrir aucune exception ni aucun contournement. Le début de l'alinéa prévoit bien l'information du public sur l'emploi de traitements algorithmiques sur les images collectées par des systèmes de vidéosurveillance ou des drones, reprenant ainsi une formulation que le législateur avait dû insérer dans la loi pour une sécurité globale après une très juste censure d'une première version par le Conseil constitutionnel. En revanche, la fin de l'alinéa, qui prévoit des dérogations « lorsque les circonstances l'interdisent ou que cette information entrerait en con...

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

Preuve en est, les dispositifs d'intelligence artificielle testés sur les réseaux sociaux sont rapidement devenus des monstres acharnés de haine : ils n'apprennent pas et sont confrontés à une accumulation d'informations allant dans le sens voulu par leurs créateurs. Dans son avis du 8 décembre sur le projet de loi, la CNIL considère que les outils d'analyse automatisés des images peuvent entraîner des risques importants pour les libertés individuelles et collectives, ainsi qu'un risque de surveillance et d'analyse dans l'espace public : on ne peut pas dire qu'elle soutienne franchement votre dispositif. Le Conseil d'État estime que le traitement des images est susceptible de mettre en cause la protection de la vie privée ainsi que d'autres droits et libertés fondamentale...

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

La CNIL comme le Conseil d'État ont remarqué que l'analyse des images et le recours à l'intelligence artificielle posaient des questions de libertés publiques, qui exigeaient de trouver un équilibre entre la sécurité des personnes et le respect des données personnelles et des libertés publiques. C'est bien pour cela que l'article 7 offre les garanties nécessaires à l'usage de la surveillance par intelligence artificielle et au traitement des données. Si nous avon...