Je ne peux pas vous laisser dire, madame Regol, que seules trois entreprises développent des algorithmes d'intelligence artificielle appliqués à la vidéosurveillance et qu'elles pratiquent la reconnaissance faciale. Ce n'est pas vrai ! Il y a des dizaines d'entreprises, rien qu'en France, qui élaborent des algorithmes d'intelligence artificielle pour de la vidéo. Certaines d'entre elles sont intégrées à des incubateurs dans les plus grands opérateurs de transport public comme la RATP et la SNCF. Elles n'utilisent ni biométrie, ni reconnaissance faciale : vous agitez systématiquement ce chiffon rouge, alors que ce que vous pointez n'existe pas.
Des laboratoires publics travaillent sur ces questions, et nous avons déposé un amendement visant à ce que l'État puisse fournir des jeux de données pour vérifier l'absence de biais des algorithmes. Nous souhaitons créer un équivalent français de l'institut national des normes et de la technologie – Nist en anglais pour National Institute of Standards and Technology – américain ; le NIST fait tourner les algorithmes à partir d'un jeu de données et sait exactement les informations qu'il doit et celles qu'il ne doit pas récupérer : c'est une façon de prouver que l'algorithme est loyal, ne comporte pas de biais et ne peut pas déboucher sur des discriminations. Développer un tel dispositif est faisable en France ; la CNIL s'est dotée d'un service d'intelligence artificielle justement pour exercer ces contrôles.
Ne jetez pas une suspicion généralisée en demandant d'ouvrir le code pour ne pas avoir de biais. Si vous demandez à Google d'ouvrir son code, celui-ci ne vaudra plus rien.