Publié le 29 septembre 2023 par : Mme Amiot, Mme Abomangoli, M. Alexandre, M. Amard, Mme Amrani, M. Arenas, Mme Autain, M. Bernalicis, M. Bex, M. Bilongo, M. Bompard, M. Boumertit, M. Boyard, M. Caron, M. Carrière, M. Chauche, Mme Chikirou, M. Clouet, M. Coquerel, M. Corbière, M. Coulomme, Mme Couturier, M. Davi, M. Delogu, Mme Dufour, Mme Erodi, Mme Etienne, M. Fernandes, Mme Ferrer, Mme Fiat, M. Gaillard, Mme Garrido, Mme Guetté, M. Guiraud, Mme Hignet, Mme Keke, M. Kerbrat, M. Lachaud, M. Laisney, M. Le Gall, Mme Leboucher, Mme Leduc, M. Legavre, Mme Legrain, Mme Lepvraud, M. Léaument, Mme Pascale Martin, Mme Élisa Martin, M. Martinet, M. Mathieu, M. Maudet, Mme Maximi, Mme Manon Meunier, M. Nilor, Mme Obono, Mme Oziol, Mme Panot, M. Pilato, M. Piquemal, M. Portes, M. Prud'homme, M. Quatennens, M. Ratenon, M. Rome, M. Ruffin, M. Saintoul, M. Sala, Mme Simonnet, Mme Soudais, Mme Stambach-Terrenoir, Mme Taurinya, M. Tavel, Mme Trouvé, M. Vannier, M. Walter.
Substituer à l’alinéa 16 les cinq alinéas suivants :
« 3° L’article L. 111‑7‑1 est ainsi rédigé :
« « Art. L. 111‑7‑1. – Tout opérateur de plateforme qui propose des contenus, biens ou services au moyen d’algorithmes informatiques en informe chaque utilisateur par le biais d’une mention explicite. Cette mention explicite précise que l’utilisateur a le droit d’obtenir les principales caractéristiques de mise en œuvre de ces algorithmes, sur demande.
« « L’opérateur de plateforme saisi d’une demande visée au premier alinéa doit communiquer à tout utilisateur, sous une forme intelligible et dans un délai maximum d’un mois, les informations suivantes :
« « 1° Les données traitées et leurs sources ;
« « 2° Les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’utilisateur. » »
Cet amendement crée une obligation de transparence sur les mécanismes et les pondérations utilisés par les algorithmes des plateformes numériques envers leurs consommateurs et usagers à travers la création d’un droit numérique à « l’explicitation ».
Comme le rappelle la CNIL en 2017, tout algorithme est « en un sens, biaisé, dans la mesure où il est toujours le reflet – à travers son paramétrage et ses critères de fonctionnement, ou à travers les données d’apprentissage qui lui ont été fournies – d’un système de valeurs et de choix de société ».
Le risque est alors d’«automatiser » et de renforcer les discriminations systémiques existantes de nos sociétés, comme le souligne différentes chercheuses comme Virginia Eubanks (2018) qui démontre que ces systèmes tendent à davantage cibler et contrôler – et donc stigmatiser - les membres des groupes sociaux déjà défavorisés et dominés.
Cela remet en question la protection effective de nos droits fondamentaux, comme le soulignent de nombreuses institutions telles que le Défenseur des Droits (2020). Il réaffirme que l’utilisation d’algorithmes créée un risque par exemple en termes de respect du droit à la non-discrimination, qui se manifeste notamment par une fragilisation du droit à un recours effectif – le manque de transparence caractérisant les systèmes mis en œuvre rendant difficile voire impossible pour les utilisateurs de savoir qu’ils ont été victime d’une décision d’un algorithme injustement défavorable et donc d’exercer effectivement leur droit au recours.
Or, malgré l’importance de l’enjeu, un constat s’impose : les concepteurs d’algorithmes, tout comme les organisations achetant et utilisant ce type de systèmes et les utilisateurs finaux sont peu, voire pas sensibilisés aux risques que font peser les algorithmes sur les droits fondamentaux.
Sans révéler les secrets de fabrication commerciaux, l’information des usagers sur les données traitées par les algorithmes, les paramètres de traitement et leur pondération est indispensable.
Nous reprenons dans cet amendement une proposition du groupe écologiste-NUPES lors de l'examen en commission spéciale.
Aucun commentaire n'a encore été formulé sur cet amendement.