Cet amendement vise à rendre transparents les codes intégrés aux algorithmes. Cela s'inscrit, me semble-t-il, dans la continuité de plusieurs mesures adoptées par l'Assemblée depuis une dizaine d'années, de manière généralement assez consensuelle, au sujet de dispositions sécuritaires potentiellement discriminatoires.
Nos débats l'ont montré, le fait de renforcer la transparence, c'est-à-dire la libre consultation des codes, et donc la possibilité d'en rectifier les erreurs, est une manière de faire bénéficier les usagers de ce fameux droit à l'erreur que vous offrez aux entreprises privées, afin qu'ils puissent vérifier le contenu des algorithmes. Un algorithme, on le sait, établit un lien entre une action qu'engage une personne et certaines données, lien qui peut être plus ou moins légitime. Mon camarade Léaument vient d'expliquer que l'établissement de ce lien peut conduire à ce qu'une donnée en cache une autre : c'est la question des biais algorithmiques ; parce que certaines populations sont plus couramment associées à certains types de données, il existerait un lien logique entre ces populations et un certain type d'action. Pour éviter ces discriminations, il faut que le code soit public, afin que l'on puisse vérifier comment s'établissent les liens en amont, quelles sont les formules utilisées. Il s'agit de protéger les libertés individuelles, dans un texte qui les met déjà suffisamment à mal.