Publié le 29 septembre 2023 par : Mme Obono, Mme Abomangoli, M. Alexandre, M. Amard, Mme Amiot, Mme Amrani, M. Arenas, Mme Autain, M. Bernalicis, M. Bex, M. Bilongo, M. Bompard, M. Boumertit, M. Boyard, M. Caron, M. Carrière, M. Chauche, Mme Chikirou, M. Clouet, M. Coquerel, M. Corbière, M. Coulomme, Mme Couturier, M. Davi, M. Delogu, Mme Dufour, Mme Erodi, Mme Etienne, M. Fernandes, Mme Ferrer, Mme Fiat, M. Gaillard, Mme Garrido, Mme Guetté, M. Guiraud, Mme Hignet, Mme Keke, M. Kerbrat, M. Lachaud, M. Laisney, M. Le Gall, Mme Leboucher, Mme Leduc, M. Legavre, Mme Legrain, Mme Lepvraud, M. Léaument, Mme Pascale Martin, Mme Élisa Martin, M. Martinet, M. Mathieu, M. Maudet, Mme Maximi, Mme Manon Meunier, M. Nilor, Mme Oziol, Mme Panot, M. Pilato, M. Piquemal, M. Portes, M. Prud'homme, M. Quatennens, M. Ratenon, M. Rome, M. Ruffin, M. Saintoul, M. Sala, Mme Simonnet, Mme Soudais, Mme Stambach-Terrenoir, Mme Taurinya, M. Tavel, Mme Trouvé, M. Vannier, M. Walter.
Après la deuxième phrase du premier alinéa de l’article L. 312‑9 du code de l’éducation, il est inséré une phrase ainsi rédigée : « Une attention particulière doit également être apportée à l’étude des biais, de toute nature, qui affectent la conception, le fonctionnement et les résultats mis en avant par les traitements de données à caractère personnel, ainsi que sur les incidences de ces biais sur la protection des droits fondamentaux des individus dont les données à caractère personnel ont été utilisées par ces traitements. »
Par cet amendement, nous proposons d'intégrer une formation obligatoire aux biais algorithmiques et de leurs incidences en termes de respect des droits fondamentaux des utilisateurs finaux dans les programmes scolaires des élèves de l’Education nationale.
Les différents traitements de données à caractère personnel tels que les algorithmes informatiques – description d’une suite d’étapes exprimé dans un langage informatique, transcrit en un programme et exécuté dans un logiciel, permettant ainsi d’obtenir un résultat à partir de données fournis en entrée - sont présents partout dans notre quotidien hyper connecté : localisation GPS, modération des réseaux sociaux, applications de rencontres…
Leur développement s’est d’autant plus intensifié ces dernières années que les algorithmes informatiques ont pu se parer d’une prétendue neutralité et objectivité que nous attribuons presque par réflexe à ces outils. Or, cela est loin d’être la réalité. En effet, comme le rappelle la CNIL en 2017, tout algorithme est « en un sens, biaisé, dans la mesure où il est toujours le reflet – à travers son paramétrage et ses critères de fonctionnement, ou à travers les données d’apprentissage qui lui ont été fournies – d’un système de valeurs et de choix de société ».
Le risque est alors d’«automatiser » et de renforcer les discriminations systémiques existantes de nos sociétés, comme le souligne différentes chercheuses comme Virginia Eubanks (2018) qui démontre que ces systèmes tendent à davantage cibler et contrôler – et donc stigmatiser - les membres des groupes sociaux déjà défavorisés et dominés.
Cela créé ainsi un souci au niveau de la protection effective de nos droits fondamentaux, comme le soulignent de nombreuses institutions telles que le Défenseur des Droits (2020). Il réaffirme que l’utilisation d’algorithmes créée un risque par exemple en termes de respect du droit à la non-discrimination, qui se manifeste notamment par une fragilisation du droit à un recours effectif – le manque de transparence caractérisant les systèmes mis en œuvre rendant difficile voire impossible pour les utilisateurs de savoir qu’ils ont été victime d’une décision d’un algorithme injustement défavorable et donc d’exercer effectivement leur droit au recours.
Or, malgré l’importance de l’enjeu, un constat s’impose : les concepteurs d’algorithmes, tout comme les organisations achetant et utilisant ce type de systèmes et les utilisateurs finaux sont peu, voire pas sensibilisés aux risques que font peser les algorithmes sur les droits fondamentaux.
Afin d’y remédier, il est donc plus que nécessaire de sensibiliser les individus le plus tôt possible à ces enjeux, d’autant plus que nous avons accès aux écrans, et donc à des algorithmes, de plus en plus tôt. En effet, selon Santé Publique France (2023), le temps d’écran total moyen chez les enfants atteint dès 5 ans et demi 94 min, dont 35 min sur des tablettes, ordinateurs, smartphones et jeux vidéos sur console. Ce temps ne fait qu'augmenter à l'adolescence. Cette phase étant une phase extrêmement importante pour la construction mentale et intellectuelle des individus, les exposer aux biais algorithmiques numériques aussitôt sans faire de prévention pose un risque structurel en termes de reproduction numérique des discriminations à travers les biais algorithmiques.
Intégrer une formation aux biais algorithmiques dans les programmes scolaires de l’Education nationale serait une mesure structurelle et permettrait ainsi de répondre à cette problématique de façon efficace.
Aucun commentaire n'a encore été formulé sur cet amendement.