137 interventions trouvées.
...que capitaliste, a pour but de maximiser les profits et de poursuivre un développement monopolistique. L'idée est de casser le coût du travail en faisant croire aux travailleurs qu'ils sont indépendants alors qu'ils ne le sont pas. Derrière ce phénomène se cache aussi une volonté culturelle et idéologique, qui prétend que les travailleurs sont leur propre patron alors qu'ils sont subordonnés à un algorithme dont ils ne maîtrisent pas les rouages. J'ai deux questions à vous poser, qui sont davantage en lien avec vos travaux. D'abord, quelle est la réalité de l'économie des données ? Uber a d'abord cherché à faire disparaître les taxis en subventionnant les courses pour tuer la concurrence et en faisant miroiter des gains élevés pour attirer de nombreux chauffeurs – elle inondait le marché des deux ...
...bertés fondamentales, mais également sur le plan de la transaction économique et de la répartition des richesses. Si j'ai bien compris, vous dites que nous nous laissons convaincre que le système est opaque par ceux qui y ont intérêt alors qu'il n'est pas si compliqué de garantir, pour certaines plateformes, non seulement une transparence mais une maîtrise des conséquences de la modification des algorithmes. Un travail de formation et de réflexion doit être mené sur cet aspect et sur les effets des algorithmes sur le droit du travail et le droit de la consommation. Les décideurs publics sont sans doute en retard dans ces domaines. Quant à la voiture autonome, la dystopie n'est pas encore advenue… Si l'intelligence artificielle progresse fortement, l'expérience montre que le facteur humain, capable...
Outre les plaintes portant sur des déconnexions, a également été largement évoqué le manque de transparence du fonctionnement des algorithmes régissant les changements de tarif des courses ou l'accès des chauffeurs à certaines courses. La mise en relation du chauffeur et du client par la plateforme et la tarification semblent en effet obéir à des critères complexes, dont le chauffeur n'a pas connaissance et qui ne dépendent pas seulement des horaires ou du nombre de chauffeurs présents. Cette opacité, qui porte sur des éléments déterm...
Concrètement, quels sont les droits des chauffeurs et des livreurs face à la plateforme s'ils veulent avoir accès au fonctionnement de l'algorithme ? De plus, lors de la création de l'Autorité des relations sociales des plateformes d'emploi (Arpe), qui se présente comme le cadre du dialogue social permettant de faire évoluer les droits des travailleurs de ces plateformes, avez-vous été sollicités pour collaborer avec elle sur la question des droits des travailleurs ? En effet, la question de l'accès aux données et à la boîte noire des algor...
...nds depuis plusieurs années, notamment à Paris, et que cela pose des problèmes à la préfecture de police, laquelle a eu l'idée de stériliser les œufs de goélands. Dans la bataille qui oppose les drones aux goélands, j'ai choisi mon camp, c'est celui des goélands. Eux, au moins, ils sont jolis, ils sont sympas et, même s'ils nous regardent, on ne se dit pas qu'ils nous surveillent. Il n'y a pas d'algorithmes ; c'est la nature, quoi ! Alors que le drone, lui, est beaucoup moins agréable – et puis, la biodiversité des drones, cela ne parle pas à grand monde. Plus sérieusement, j'aimerais savoir comment M. le ministre prévoit de faire face aux attaques de drones par les goélands. Présentent-elles un risque pour la population ? Les drones dotés d'une autonomie suffisante pour voler en transportant une ...
...onsieur le président de la commission, elles ne sont pas des terroristes en puissance et doivent être informées de cette atteinte à leur liberté fondamentale. Le droit au respect de la vie privée des habitants des communes qui utilisent la VSA doit être garanti. Ils doivent donc être informés du fait qu'ils seront filmés et que les images sur lesquelles ils apparaîtront seront exploitées par des algorithmes.
Si la vidéosurveillance algorithmique devait effectivement être exploitée, les députés du groupe La France insoumise demandent, par cet amendement de repli, la transparence du code de l'algorithme proposé pour sa mise en œuvre. La loi pour une République numérique et plus récemment le RGPD ont introduit de nouvelles dispositions dans le droit concernant les algorithmes publics. Ces dispositions visent à introduire une plus grande transparence et une plus grande redevabilité de l'administration dans l'usage de ces systèmes, en particulier quand ils sont utilisés pour prendre des décisions....
…ils cherchent en particulier à les mathématiser afin d'être en mesure de les anticiper. Je n'ai jamais dit que c'était fait pour entraîner des algorithmes de VSA – la vidéosurveillance augmentée, comme vous l'appelez ; ce n'est absolument pas le cas. C'est d'ailleurs au Hellfest que l'Institut national de recherche en sciences et technologies du numérique (Inria) vient capter des images pour essayer d'entraîner un algorithme qui permettrait de gérer les foules – c'est son fameux GPS de gestion des foules. Et si ses chercheurs parviennent à le mett...
Il fait partie d'une série d'amendements visant à rendre les dispositifs de surveillance algorithmique les plus transparents possible, afin que nous puissions les analyser, les décortiquer, les comprendre et, finalement, nous y opposer – évidemment – en toute rationalité. Lorsque nous avons dit vouloir que le code de l'algorithme soit transparent, on nous a fait remarquer – à juste titre – que nombre des codes utilisés dans la vidéosurveillance étaient libres de droit, en open source, et donc que le sujet fondamental n'était pas forcément le code en tant que tel, mais bien son utilisation et le paramétrage opéré par l'utilisateur, c'est-à-dire ce qui est demandé à l'algorithme, les objectifs qui lui sont assignés et la dé...
Je suis d'accord mais comment fait-on ? Est-ce que ce sera un point de détection ? Comment allez-vous utiliser ces algorithmes ?
Nous voulons entrer dans le cœur des algorithmes et savoir à quoi ils vont être utilisés. Nous avons une petite liste : mouvement de foule, départ de feu, goulet d'étranglement, sac, colis, donc pas de sweat à capuche.
Je n'ai rien contre la technologie et les algorithmes en eux-mêmes, mais j'ai des critiques à émettre sur les usages qui en sont faits, notamment par la puissance publique. Je n'ai donc pas de difficulté à dire qu'il existe un corpus législatif cohérent concernant la captation d'images par les personnes privées. Il fonctionne et je ne trouve rien à y redire. Si certains font un usage illégal de captations vidéo, faites usage de la loi en vigueur p...
...nition de la Cnil, qui considère que le simple fait d'identifier un comportement, même sans identifier la personne, relève déjà de la biométrie. D'ailleurs, les industriels qui commercialisent ce type de solutions techniques et technologiques affirment même qu'il serait possible d'identifier un individu portant, par exemple, un sweat à capuche – pardon d'y revenir – rouge, puis, à l'aide d'un bon algorithme, de le suivre et de retracer son parcours. Cela suppose bien qu'on identifie sa démarche corporelle ou ses vêtements par différents points ou occurrences, qui relèvent de la biométrie. C'est pourquoi nous estimons important d'interdire le recours à la biométrie dans le texte car cela vous empêcherait d'installer des systèmes de vidéosurveillance algorithmique ou automatisée – peu importe le term...
Nous aurons ce débat à de nombreuses reprises. Les conditions énoncées par notre collègue Molac pour caractériser les données biométriques exploitées ne sont pas forcément cumulatives. De fait, toutes les entreprises qui développent ces algorithmes nous expliquent qu'elles vont chercher les rapports vectoriels qui composent le corps dans son ensemble – c'est-à-dire tous les points qui forment le visage mais aussi les bras ou encore le torse – pour élaborer une solution.
Il vise à indiquer, après la première phrase de l'alinéa 5, toujours à propos des algorithmes – le sujet qui nous occupe ce matin – : « Ils ne peuvent induire aucune des formes de discrimination mentionnées à l'article 225-1 du code pénal. » C'est une précaution supplémentaire. Pour reprendre l'expression employée tout à l'heure par M. Balanant, ça ne mange pas de pain de l'inscrire dans la loi. J'ajouterai : cela va sans dire mais cela va mieux le disant. Il nous semble même très import...
Il me paraît insensé d'avancer l'argument selon lequel l'algorithme étant loyal, objectif et rationnel, il ne saurait être discriminatoire.
D'ailleurs, s'agissant du processus d'apprentissage – puisque je sais que vous prenez en considération l'opérateur humain –, lorsqu'un voyant clignotera parce que l'algorithme aura détecté un événement prédéterminé, l'opérateur procédera à une vérification, à une levée de doute soit en visionnant lui-même les images soit en envoyant des équipes sur place. Ensuite, si l'incident est réel, il le traitera, sinon il le clora. Cette décision – la validation ou non du problème – viendra alors enrichir l'algorithme en améliorant sa capacité à sélectionner les événements qu'il...
Si l'opérateur a tendance à se comporter de façon discriminatoire – en considérant les critères définis à l'article 225-1 du code pénal –, il en ira de même pour votre algorithme même si celui-ci se montre loyal et éthique vis-à-vis de l'opérateur qui décide de donner son feu vert ou au contraire de ne pas valider l'événement signalé. Comme l'a dit le collègue Guedj, les algorithmes reproduisent les biais déjà présents dans la société. Pour se prémunir des risques liés à ce phénomène, il faut faire du droit et rappeler nos principes noir sur blanc dans le texte et non se...
...e également de sérieux biais concernant certaines personnes en situation de handicap, qui sont déjà une des populations les plus discriminées selon la Défenseure des droits ; elles le sont au quotidien dans un espace public pensé pour et par des personnes 100 % valides. Les personnes en situation de handicap peuvent en effet avoir une manière de se déplacer ou une gestuelle différente de ce que l'algorithme va considérer comme un comportement normal. Quels sont les fondements d'une norme édictée pour définir la façon de se mouvoir et de se comporter dans une société de libertés ? On pourrait assister à une incrimination de personnes en raison de leur couleur de peau ou de leur handicap, ou encore de leur façon de s'habiller pour l'unique motif qu'elles circulent dans la rue. En conséquence, et malg...
Autant il ne serait pas évident de sensibiliser un algorithme aux discriminations, autant procéder à une sensibilisation à la non-discrimination des gens chargés de le mettre en œuvre ou de procéder d'une manière ou d'une autre à des opérations de surveillance est plus pertinente et plus efficace. Nous avons fait la démonstration que le principal problème provient des biais introduits dans le fonctionnement de l'algorithme, notamment du fait des arbitrages ...