Intervention de Raja Chatila

Réunion du jeudi 25 octobre 2018 à 14h05
Mission d'information sur la révision de la loi relative à la bioéthique

Raja Chatila, professeur à Sorbonne Université, directeur de l'Institut des systèmes intelligents et de robotique (ISIR) :

Monsieur le président, je vous remercie de m'avoir invité à venir témoigner devant cette mission d'information.

Je tenterai de vous apporter un éclairage concernant l'intelligence artificielle dans le domaine de la santé, mais aussi de façon plus générale, dans la mesure où la robotique et l'intelligence artificielle permettent de réaliser des fonctionnalités qui sont relativement proches des facultés humaines, et qui posent, de ce fait, des questions sur l'identité humaine et la dignité humaine. J'irai donc au-delà de la simple question de l'impact de l'intelligence artificielle (IA) sur la santé.

En ce qui concerne les questions de santé, je me focaliserai sur les problématiques qui peuvent être liées à la médecine « 4P » – prédictive, préventive, personnalisée et participative – dans la mesure où cette démarche de médecine prédictive s'appuie sur l'identification de pathologies qui ne sont pas encore exprimées, mais qui pourraient l'être, dès lors que le profil d'une personne saine présente des similarités avec des profils de personnes qui ont développé la pathologie, et que ces informations sont stockées dans des bases de données qui ont été traitées à travers des systèmes d'apprentissage.

Passer à la prédiction signifie que la statistique, issue des connaissances préalables, donne une certaine probabilité, pour une personne saine, de développer une pathologie dans un temps plus ou moins prévisible – ce qui transforme la personne saine en future patiente qui, à un instant donné, doit être traitée préventivement, afin que cette pathologie ne se manifeste pas, ou pour retarder sa manifestation.

De ce fait, l'impact est évidemment important, à la fois sur la santé publique puisque nous allons réduire le développement de ces pathologies, et sur la vie individuelle.

La question que nous devons nous poser concerne la qualité des prédictions, du point de vue scientifique, à partir du moment où nous les fondons sur des statistiques. Ces prédictions, fondées sur des systèmes d'apprentissage dont l'explicabilité n'est pas encore tout à fait au point, peuvent entraîner deux risques majeurs. D'une part, une identification un peu trop sommaire des pathologies possibles pour une personne donnée ; d'autre part, l'ignorance de ce que nous appelons les signaux faibles, c'est-à-dire des éléments qui se trouvent dans les données mais que le traitement statistique ne fait pas ressortir, et qui peuvent néanmoins avoir de l'importance pour un certain nombre de pathologies qui ne seraient pas identifiées.

Quelles peuvent être les conséquences ? D'abord, des conséquences éthiques, puisque la vie d'un individu peut être impactée par la prévision avancée d'une possibilité de développer une pathologie, sur la seule base de similarités statistiques, ce qui amène à traiter cette personne d'une manière particulière, aussi bien en termes d'assurance maladie – ou d'assurance personnelle – que d'hygiène de vie. Ensuite, je l'ai dit, l'ignorance des signaux faibles.

Au-delà du domaine de la santé, un autre aspect peut poser un problème éthique : le développement des robots visant la ressemblance humaine, c'est-à-dire des robots androïdes. La France ne développe pratiquement pas ce type de robot, mais ils sont particulièrement développés au Japon et aux États-Unis.

Ces robots androïdes soulèvent, de mon point de vue, un certain nombre de problèmes. D'abord, du fait de la recherche de la ressemblance humaine par l'aspect, le comportement et l'expression d'émotions, une confusion peut se créer entre une personne humaine et une machine, ce qui va nous amener à débattre de la notion même d'humanité et de dignité de l'être humain.

Cette problématique concerne le développement des robots androïdes sous toutes les formes et pour toutes applications. Je pense, entre autres, aux robots sexuels, qui peuvent prendre une forme féminine, mais aussi celle d'un enfant : se pose alors la question de l'usage qui peut en être fait.

D'autres questions se posent concernant la notion de droit du robot. Le Parlement européen, dans une résolution de février 2017, a expliqué qu'en attribuant la personnalité juridique à ces machines, elles pourraient être rendues responsables de leurs actes. Mais dans la mesure où il s'agit, non pas d'une voiture, par exemple, mais d'une entité qui ressemble à un être humain et qui tend à se comporter comme un être humain, la voie est ouverte vers la confusion entre personnalité juridique – éventuelle – et droits. Les droits sont généralement énoncés quand on cherche à protéger une entité. De mon point de vue, le fait que la personne humaine puisse être confondue avec une machine amènera assez facilement à donner à la machine des droits pour que, justement, elle puisse être préservée du fait de sa ressemblance avec la personne humaine.

Cela soulève des questions éthiques, mais aussi des questions juridiques qui peuvent passer relativement inaperçues, rien n'interdisant aujourd'hui de développer des robots androïdes ni des machines qui font semblant d'être des êtres humains. L'une d'elles s'appelle d'ailleurs Sophia, et elle est exhibée dans des conférences internationales. L'Arabie Saoudite lui a donné la citoyenneté, montrant ainsi son intérêt pour les nouvelles technologies. Il s'agit d'un exemple parmi d'autres, qui montre que nous sommes sur une pente glissante, qui peut se généraliser.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.