Ce site présente les travaux des députés de la précédente législature.
NosDéputés.fr reviendra d'ici quelques mois avec une nouvelle version pour les députés élus en 2024.

Interventions sur "algorithme"

137 interventions trouvées.

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

Une opacité entoure les algorithmes ; d'ailleurs, un collègue dont je tairai le nom me disait il y a quelques minutes hors micro qu'il n'y avait rien de plus bête qu'une intelligence artificielle.

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

...que d'autres droits et libertés fondamentales, telles que les libertés d'aller et venir, d'opinion et de manifestation. La transparence et l'accessibilité des traitements algorithmiques sont essentielles : le flou n'est pas acceptable alors que les forces de l'ordre décideront ou non d'intervenir, pendant une période prétendument courte mais en réalité bien longue, sur la base de l'analyse de ces algorithmes ; les ordres donnés et les moyens d'accumulation des informations ne peuvent rester hors de tout contrôle car le risque existe que ces informations soient utilisées de manière obsessionnelle contre certains comportements et certaines personnes. Les écologistes proposent donc que les traitements algorithmiques soient rendus accessibles au public sous un format ouvert et librement réutilisable et...

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

...igence artificielle et au traitement des données. Si nous avons confirmé le dispositif de dérogations dont nous avons parlé précédemment, c'est bien parce qu'il figure à l'article 23 du RGPD, règlement dont vous avez affirmé récemment, madame Regol, qu'il était une conquête des écologistes ; je ne peux imaginer que ceux-ci y aient laissé des dispositions liberticides. Rendre public le code de l'algorithme reviendrait à aider tous ceux qui voudraient le pirater et le détourner, ce qui menacerait la sécurité. En revanche, l'alinéa 14 offre des garanties puisqu'il dispose que les données sont « pertinentes, adéquates et représentatives, leur traitement loyal, objectif et de nature à identifier et prévenir l'occurrence de biais et d'erreurs. » Les scénarios d'usage seront précisément déterminés et ne ...

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

Avez-vous testé ces algorithmes et les logiciels qui les utilisent ? Si vous l'aviez fait, vous auriez constaté que la reconnaissance faciale est une simple case à cocher dans les logiciels, que seules trois entreprises développent et installent en France. On peut même utiliser, en cas de contrôle, un cache empêchant de vérifier si l'option est cochée. Dire aux représentants du peuple qu'il n'y a pas de reconnaissance faciale ...

Photo issue du site de l'Assemblée nationale ou de WikipediaUgo Bernalicis :

Monsieur le rapporteur, vous avez craqué – mais pas le code, hélas. De très grandes entreprises pratiquent les bug bounty ou primes aux bogues : ils laissent les codes de leurs algorithmes à la disposition de hackers bienveillants, afin que ces derniers les améliorent et les rendent moins piratables. Telle est la vertu du code source ouvert ; contrairement à ce que vous dites, l'ouverture du code source empêche son piratage, tout en offrant des garanties démocratiques. J'avais rencontré au salon annuel de la cybersécurité à Lille le collectif YesWeHack, qui agit efficacemen...

Photo issue du site de l'Assemblée nationale ou de WikipediaPhilippe Latombe :

Je ne peux pas vous laisser dire, madame Regol, que seules trois entreprises développent des algorithmes d'intelligence artificielle appliqués à la vidéosurveillance et qu'elles pratiquent la reconnaissance faciale. Ce n'est pas vrai ! Il y a des dizaines d'entreprises, rien qu'en France, qui élaborent des algorithmes d'intelligence artificielle pour de la vidéo. Certaines d'entre elles sont intégrées à des incubateurs dans les plus grands opérateurs de transport public comme la RATP et la SNCF. El...

Photo issue du site de l'Assemblée nationale ou de WikipediaRoger Vicot :

Comme ce qui va sans dire va mieux en l'écrivant, nous proposons d'insérer, dans l'alinéa 5, la phrase suivante : les algorithmes « ne peuvent induire aucune des formes de discrimination mentionnées à l'article 225-1 du code pénal. »

Photo issue du site de l'Assemblée nationale ou de WikipediaÉlisa Martin :

Je n'ai rien entendu, dans ces arguments, qui indique explicitement qu'il importe de veiller à ce que les traitements n'induisent aucune forme de discrimination. Lors des auditions, il nous a été dit que des CV vidéo avaient vraisemblablement été analysés par les algorithmes et que toutes les personnes ayant un accent étranger ou marseillais avaient été écartées d'emblée. Il est donc nécessaire de préciser que l'on exclut toute forme de discrimination.

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

... les images captées par vidéosurveillance est une autre forme d'atteinte aux droits des personnes. Les images serviraient non plus seulement à des raisons alléguées de sécurité, mais aussi à l'apprentissage d'une intelligence artificielle, à des fins commerciales. Nous venons d'avoir un échange passionnant : notre collègue Philippe Latombe a déclaré que si l'on publiait en open source ses algorithmes, Google ne rapporterait plus rien.

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

Ce qui se joue à travers ces algorithmes, ce sont donc des intérêts financiers – qui ne sont pas localisés en France, du reste. C'est un vrai problème. Quand bien même, d'ailleurs, il s'agirait d'entreprises françaises, la défense de la vidéosurveillance automatisée (VSA) est en fait celle d'intérêts financiers : il ne s'agit pas d'assurer la sécurité des personnes et la bonne tenue des JO. Nous souhaitons empêcher cette dérive qui fa...

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

Certes, le premier alinéa précise que les traitements ont vocation à détecter des événements et à les signaler en temps réel, et pas a posteriori. Mais dans une finalité unique et bien précise, à savoir l'apprentissage, les algorithmes doivent s'appuyer sur des données préalablement enregistrées. Ce traitement a pour but rendre les algorithmes plus efficaces. Je me suis efforcé d'obtenir toutes les garanties possibles, mais celles-ci ne sauraient conduire à rendre le système inopérant – c'est l'objet de l'amendement que je proposerai à l'alinéa 32. Avis défavorable.

Photo issue du site de l'Assemblée nationale ou de WikipediaGuillaume Vuilletet, rapporteur :

Les technologies en question existent déjà. L'objet de l'expérimentation est de savoir si les usages visés, une fois que l'algorithme aura été nourri par des jeux de données, permettront de garantir la sécurité des citoyens. Or la réponse n'est pas écrite. Nous considérons que ces outils apportent un gain, car des expériences allant dans ce sens ont déjà été menées – en France, par la SNCF, et en Espagne, pour d'autres cas de figure –, mais nous évaluerons les résultats. Il s'agit donc bien d'une expérimentation législative, et...

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

Ce qui semble évident quand on vous écoute ne l'est pas quand on lit le texte, et on sent une résistance profonde à l'idée d'inscrire dans la loi des dispositions entravant une mise sur le marché rapide de ces algorithmes. Il y a quelques mois, devant les professionnels des industries de la protection, dans le cadre du salon Expoprotection, M. Latombe a dit clairement qu'il y avait urgence à commercialiser ces algorithmes : « Il faut que les entreprises puissent commercialiser des produits le plus rapidement possible ». Il s'est alors engagé auprès de ces industriels à ce que le dispositif soit efficace et rapide...

Photo issue du site de l'Assemblée nationale ou de WikipediaSandra Regol :

...res physiques ou des comportements considérés comme anormaux. Les « événements prédéterminés » dont il est question ne sont pas définis, et le texte indique encore moins la façon dont ils sont détectés par l'intelligence artificielle. Il apparaît donc nécessaire de préciser autant que possible les critères permettant la catégorisation de ces événements, ainsi que le processus d'apprentissage de l'algorithme.

Photo issue du site de l'Assemblée nationale ou de WikipediaRoger Vicot :

Il s'agit de sécuriser l'algorithme en faisant en sorte que la puissance publique soit garante des résultats et de la gestion du système. Pour ce faire, l'amendement vise à imposer à l'État d'assurer le développement du traitement algorithmique au lieu de le sous-traiter à une entreprise privée.

Photo issue du site de l'Assemblée nationale ou de WikipediaÉlisa Martin :

L'amendement de M. Vicot est particulièrement important : dès lors que le dispositif va à l'encontre des libertés publiques, il est impératif qu'il reste dans le giron de l'État. Cette observation ne signifie pas que nous acceptons l'utilisation des algorithmes, mais compte tenu du danger qu'ils représentent, il n'est pas possible de les laisser entre les mains du marché.

Photo issue du site de l'Assemblée nationale ou de WikipediaPhilippe Latombe :

...de éventuellement un logiciel ou un traitement algorithmique au départ, mais en fonction de l'apprentissage, ils peuvent évoluer. Même si l'on demandait la publication du code, celui-ci évoluerait au fil de l'apprentissage. La question suivante nous est donc posée : optons-nous, à l'alinéa 14, pour une obligation de résultat ? Si oui, il faut assumer le fait qu'il soit impossible de recourir à un algorithme s'il a évolué et ne répond plus entièrement aux conditions de départ. La CNIL devra disposer des moyens de vérifier la conformité au fur et à mesure. D'autre part, si nous fixons au contraire une obligation de moyens, les alinéas 2 et 3 du V deviennent des barrières infranchissables. Le groupe Démocrate penche plutôt en faveur d'une obligation de résultat, mais cela suppose que nous acceptions q...