Ce site présente les travaux des députés de la précédente législature.
NosDéputés.fr reviendra d'ici quelques mois avec une nouvelle version pour les députés élus en 2024.

Intervention de Raja Chatila

Réunion du jeudi 6 juillet 2023 à 9h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Raja Chatila, professeur de robotique et d'intelligence artificielle, membre du conseil scientifique de l'Office :

. – Je vous remercie pour cette introduction.

L'intelligence artificielle est à la fois un domaine scientifique et une technologie avec un effet important sur la société, grâce à son caractère diffusif qui la rend présente dans tous les secteurs et domaines. Nous devons donc l'appréhender comme un domaine socio-technique. Ce n'est pas un phénomène naturel qui est évoqué ici, mais de sont des objets, conçus et développés par des êtres humains et des entreprises. Notre maîtrise en tant qu'êtres humains et sociétés, en tant que parlementaires et gouvernement, est possible à mettre en œuvre car la simple observation, dans ce cas, ne suffit pas.

Mais il ne convient pas de croire aux annonces alarmistes sur la superintelligence. Ce discours n'est pas fondé scientifiquement, mais dominé par d'autres raisons pour avoir un effet de crainte et donner confiance dans la maîtrise de ces risques, qui doit revenir à la société et à ses organisations.

L'intelligence artificielle, comme toute technologie, doit être correctement maîtrisée et adaptée pour être en accord avec la loi et les droits humains. Il est essentiel d'en comprendre les mécanismes pour la démystifier et les effets pour l'utiliser et la maîtriser, selon les termes du rapport de l'Office de mars 2017 évoqué précédemment.

Mars 2017 a également vu la naissance d'une nouvelle architecture d'intelligence artificielle chez Google, appelée Transformer. Celle-ci a permis une avancée majeure dans le domaine du traitement automatique de la langue naturelle. Cette avancée a entraîné une accélération du développement des systèmes d'intelligence artificielle générative avec, par exemple, ChatGPT, mais aussi le système Bloom en Europe, grâce au supercalculateur Jean Zay. Nous ne sommes donc pas en retard, mais nous devons avoir de la motivation et des moyens pour être acteurs et ne pas se soumettre au bon vouloir de la Californie.

Les recommandations du rapport de 2017 sont toujours valides, mais d'autres apparaissent désormais. Le Comité national pilote d'éthique du numérique, dont nous sommes membres, vient de publier un avis sur les enjeux d'éthique des systèmes d'IA générative. Cet avis propose dix recommandations sur la conception et douze sur la gouvernance.

Par exemple, sur la question de la vérité, ces systèmes mélangent le vrai et le faux, par leur nature même, à cause de leur méthode statistique et corrélative. Or, un accord commun sur des vérités partagées est un socle de la cohésion de la société, on l'a vu lors de l'assaut sur le Capitole. Un accord sur la vérité des faits partagée est donc essentiel et cette menace doit être maitrisée.

Un autre aspect est l'absence de signification et de sémantique. Ces systèmes n'appréhendent pas la signification des mots et des textes, ce sont les humains qui le font. Des textes sans signification peuvent donc être produits et doivent être pris avec la plus grande prudence, sans même parler des images. Il est donc nécessaire de former les utilisateurs à ces limites et problèmes.

Je vais mentionner l'une des applications envisagées : l'éducation (et l'apprentissage) qui est un cheminement dans lequel interagissent le pédagogue et l'apprenant pour acquérir des connaissances et des savoir-faire. Les systèmes d'IA peuvent donner des résultats mais sans mention de qualité ni de source. Il est donc primordial de pouvoir étudier leur effet sur le développement cognitif des élèves avant de les utiliser.

En termes de régulation, ces systèmes doivent être considérés comme à haut risque car, quelle que soit leur utilisation, ils contiennent ce problème de la vérité. La responsabilité des acteurs tout au long de la chaîne de valeur, des modèles de fondation jusqu'aux applications, doit être identifiée. Il n'est pas possible d'exclure de la responsabilité les concepteurs des modèles, par exemple.

Enfin, concernant la réglementation, ces systèmes sont construits à partir de calculs sur de grandes quantités de données présentes sur Internet. Les questions de la protection des données personnelles et de la propriété intellectuelle se posent donc ici et doivent être examinées au regard de l'existence de cette nouvelle technologie.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.