Ce site présente les travaux des députés de la précédente législature.
NosDéputés.fr reviendra d'ici quelques mois avec une nouvelle version pour les députés élus en 2024.

Intervention de Stéphane Piednoir

Réunion du jeudi 7 mars 2024 à 8h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Stéphane Piednoir, président de l'Opecst :

. – Mesdames, Messieurs, chers collègues, j'introduirai cette table ronde en tant que président de l'Opecst. Je salue notre premier vice-président, le député Pierre Henriet. Notre délégation bicamérale comptant dix-huit députés et dix-huit sénateurs connaît une présidence tournante entre l'Assemblée nationale et le Sénat tous les trois ans. J'ai pris sa relève en octobre dernier.

Le sujet qui nous rassemble ce matin a, pour l'Office parlementaire d'évaluation des choix scientifiques et technologiques, une grande importance, et ceci à double titre.

D'abord, bien sûr, parce l'intelligence artificielle est un sujet scientifique et technologique, placé au cœur des missions de l'Opecst. S'il est aujourd'hui un domaine où tout choix technologique est en même temps un choix politique, c'est bien celui-ci. L'Office a déjà publié plusieurs travaux sur le sujet, et les évolutions spectaculaires des dernières années ont conduit les Bureaux de l'Assemblée nationale et du Sénat à nous en saisir officiellement. Nos rapporteurs, les députés Huguette Tiegna et Alexandre Sabatou et les sénateurs Corinne Narassiguin et Patrick Chaize, se consacrent actuellement à ces travaux. Ils rendront leur rapport au début de l'été.

Par ailleurs, la faible présence des femmes dans les métiers scientifiques en général est aussi une préoccupation de longue date de l'Office – nous avions d'ailleurs organisé un grand colloque sur le sujet en juin 2018 à l'Assemblée nationale, là aussi avec la délégation aux droits des femmes, celle du Sénat et celle de l'Assemblée nationale.

Sur ces deux aspects – l'IA et la place des femmes dans les sciences –, je veux évidemment saluer le rôle de Cédric Villani, ancien président de l'Office, auteur par ailleurs du rapport de 2018 à l'origine de notre stratégie nationale en matière d'intelligence artificielle.

Avec la première table ronde, nous nous sommes interrogés sur la place des femmes dans les métiers de l'IA. Voyons maintenant ce qu'il en est du côté des IA elles-mêmes, avec une table ronde consacrée à la question des biais algorithmiques, et plus précisément des biais de genre des intelligences artificielles. Pour le dire de manière provocatrice, l'IA est-elle sexiste ?

La langue anglaise a ceci de particulier qu'elle n'oblige pas à choisir entre masculin et féminin, ou du moins plus rarement qu'en français – pensez au nom des métiers, par exemple. Et pourtant, si vous demandez à une IA générative comme DALL-E ou Midjourney de représenter une personne exerçant tel ou tel métier, sans préciser s'il s'agit d'un homme ou d'une femme… eh bien vous aurez presque toujours un médecin mais une infirmière, un PDG mais une secrétaire, etc. Et je vous passe les différences d'âge, de physique, et tout le reste.

Comment se fait-il qu'on en soit arrivés là, avec des IA qui finalement reproduisent, voire amplifient, les stéréotypes ?

Il faut bien comprendre – et c'est l'objet de notre table ronde – qu'il y a ici un problème spécifique à l'apprentissage par intelligence artificielle, par opposition à l'informatique « classique », fondée sur des règles programmées explicitement.

Avec l'IA, on ne dit pas à la machine qu'il y a des métiers d'hommes et des métiers de femmes, on la laisse construire ses propres règles à partir des données utilisées pour son « entraînement ». Et si dans ces données 90 % des secrétaires sont des femmes, alors une réalité statistique deviendra un biais algorithmique, c'est-à-dire une règle prescriptive et potentiellement discriminatoire.

Mais alors, que faire ? Bien sûr, on peut contraindre l'IA au moment de sa réponse – on parle d'« alignement » : « tu représenteras autant d'infirmiers que d'infirmières » –, mais on perçoit bien les limites d'une telle solution, forcément ponctuelle, arbitraire et chronophage. On peut aussi, et surtout, intervenir en amont, sur les données d'entraînement et sur les algorithmes. Mais comment ? Selon quels critères ? Décidés par qui ? Il est difficile de répondre : les IA sont aujourd'hui des boîtes noires pour un grand nombre d'entre nous. Leur secret est assez difficile à percer.

Bref, il faut commencer par comprendre comment tout cela fonctionne, et c'est pourquoi je vous propose de passer d'abord la parole à Jessica Hoffmann, dont c'est le métier chez Google, dans le cadre du programme de recherche PAIR (pour People + AI Research ).

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.