Il y a un peu plus de vingt ans – je le dis avec un peu de nostalgie –, je siégeais ici même en tant que commissaire du Gouvernement au moment où nous transposions pour la première fois les directives européennes relatives aux discriminations. Nous avions alors inscrit dans le code pénal les premiers critères de discrimination prohibés, lesquels sont aujourd'hui au nombre de vingt-cinq.
Nous savons malheureusement que les intelligences artificielles – derrière lesquelles se trouvent toujours des humains – reproduisent de manière inconsciente le pire de l'intelligence humaine, notamment les stéréotypes, les clichés et parfois, par voie de conséquence, les discriminations. On peut d'ailleurs citer aujourd'hui de multiples exemples de dérapages, de la part d'intelligences artificielles, en matière de sexisme ou de racisme.
Alors que l'on s'apprête à utiliser des IA algorithmiques, il faut avoir la certitude et la garantie que les humains qui vont prendre part à leur conception sont bien conscients des biais inhérents à de tels outils, notamment en matière de discriminations, telles que les prévoit le code pénal. Le débat ne se situe pas sur le terrain de la loyauté ou de l'éthique puisqu'il est question de sanctionner un délit reconnu par le code pénal.
Comme notre collège Roger Vicot, je ne doute pas que cette intention soit bien présente dans le texte au nom de l'éthique. Cependant nous souhaitons qu'elle soit garantie au nom du droit.