Commission des affaires étrangères

Réunion du mercredi 15 mai 2024 à 9h00

Résumé de la réunion

Les mots clés de cette réunion

  • artificielle
  • chine
  • intelligence
  • militaire
  • technologie
  • technologique
  • États-unis

La réunion

Source

La commission auditionne, dans le cadre d'une table ronde ouverte à la presse, sur les enjeux internationaux de l'intelligence artificielle, Mme Asma Mhalla, membre du laboratoire d'anthropologie politique (LAP) de l'Ecole des hautes études en sciences sociales (EHESS) et du centre national de la recherche scientifique (CNRS), enseignante à Columbia GC, Sciences Po et l'École polytechnique, et M. Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques (IRIS) et à la Joint European Disruptive Initiative.

Présidence M. Jean-Louis Bourlanges, président.

La séance est ouverte à 9 h 05

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Mes chers collègues, notre ordre du jour appelle ce matin la tenue d'une table ronde sur l'un des phénomènes les plus importants, les plus intrigants et dont il est très difficile de mesurer les implications : l'intelligence artificielle (IA). À bien des égards, celle-ci est présentée, comme le socle d'une révolution majeure dans la vie de l'humanité.

À ma connaissance, l'IA n'a pas de définition universellement admise. Il semble que ce soit l'ingénieur McCarthy qui a, le premier, utilisé cette dénomination lors de la conférence de Dartmouth en 1956, au cours de laquelle l'intelligence artificielle a été établie en tant que discipline à part entière. Parmi les définitions usuelles que nous connaissons, le Parlement européen considère que l'IA représente tout outil utilisé par une machine « afin de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».

L'intelligence artificielle représente l'aboutissement d'un processus d'artificialisation des mécanismes d'intelligence. Au sein de notre commission, sans savoir exactement les contours du bouleversement auquel il faut s'attendre, nous sommes absolument convaincus que le développement de l'intelligence artificielle affectera très profondément à la fois les relations entre les États, les relations à l'intérieur des États, entre les populations et les gouvernants, et les relations entre, d'une part, les grands acteurs économiques et technologiques et, d'autre part, la puissance publique.

Nous sommes tout autant convaincus qu'il s'agit d'un enjeu absolument central pour l'activité internationale d'un État comme la France. Avons-nous raté le coche ? Avons-nous pris le bon train, au bon moment ? Quels comportements négatifs devons-nous redouter ? Que pouvons-nous espérer ? Que devons-nous faire ? Telles sont les questions qui se posent, notamment, à nos intervenants.

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

Au cours de mon intervention liminaire, je me bornerai à essayer de dresser un panorama évidemment limité et subjectif de l'histoire politique de l'intelligence artificielle. Ces jalons devraient nous permettre au fur et à mesure de mettre en lumière les principaux enjeux.

Comme vous l'avez indiqué, le terme « intelligence artificielle » a été conçu comme une formule marketing par le mathématicien John McCarthy dans les années 1950, qui désirait trouver des financements pour le nouveau champ de recherche qu'il était en train de créer. La seconde origine du terme est plus ancienne : elle s'enracine dans l'Amérique de la seconde guerre mondiale, à la croisée des champs scientifiques, militaires et industriels. L'IA dérive essentiellement d'un mouvement scientifique – la cybernétique – apparu dans les années 1940, animé par des chercheurs venus de différents horizons qui s'étaient mis en tête d'édifier une science générale du fonctionnement de l'esprit humain et de reproduire cet esprit humain dans une machine. D'une certaine manière, il y a là les origines scientifiques ou philosophiques de l'intelligence artificielle et du transhumanisme.

Comme tant d'autres scientifiques à cette époque, les cybernéticiens travaillent pour l'armée et le département de la guerre, qui n'était pas encore le département de la défense. Parmi eux, certains – comme Norbert Wiener, la figure de proue du mouvement cybernétique – vont s'atteler à l'automatisation des tâches militaires. En lien avec Julian Bigelow, un ingénieur d'IBM – International Business Machines Corporation –, ils vont travailler à la mise au point d'un système de tir prédictif antiaérien. L'idée consistait à « prendre en entrée » des données acoustiques, comme le bruit des aéronefs, pour essayer d'en prédire la trajectoire pour que la défense antiaérienne puisse les détruire.

Les liens entre la cybernétique et le monde de la défense se sont poursuivis dans les années suivantes avec l'intelligence artificielle. Dès les années 1960, des millions de dollars ont été dépensés chaque année par l' Advanced Research Projects Agency (ARPA), l'ancêtre de la Defense Advanced Research Projects Agency (DARPA), l'agence de recherche et développement du Pentagone. Ces sommes ont contribué à financer les laboratoires d'intelligence artificielle du Massachusetts Institute of Technology (MIT), des universités Carnegie Mellon et Stanford, où John McCarthy venait de créer le laboratoire d'intelligence artificielle, ainsi que le laboratoire d'IBM.

Il est difficile de dire quand ont été testées les toutes premières applications de l'intelligence artificielle mais, dès la guerre du Vietnam, les militaires américains disposaient à leurs côtés d'une équipe d'experts d'informaticiens en charge d'utiliser l'intelligence artificielle pour aider les stratèges à prendre des décisions dans le cadre de ce conflit. Ces débuts étaient tâtonnants : en 1969, à l'un de ces experts qui lui avait demandé quand la guerre serait gagnée, l'ordinateur avait répondu : « Vous l'avez gagnée en 1964 ».

En résumé, l'origine de l'intelligence artificielle plonge ses racines dans la défense américaine, c'est-à-dire l'État. À cet égard, l'IA ne diffère pas d'autres technologies développées à cette époque aux États-Unis, qui ont pratiquement toutes été financées sur fonds fédéraux, et tout particulièrement par l'armée. Cela avait d'ailleurs conduit l'économiste américain John Kenneth Galbraith, en 1967, à parler des États-Unis comme d'une économie planifiée.

Ensuite, l'intelligence artificielle n'est pas un enjeu géopolitique récent. Dès les années 1980, se met en place une compétition internationale autour du leadership en intelligence artificielle, dans laquelle rivaliseront les Américains, les Européens et surtout les Japonais, le Japon étant alors dans un état de quasi-vassalité à l'égard des États-Unis, qui disposent d'ailleurs toujours de bases militaires sur le sol nippon.

De fait, ce n'est pas tant l'usage militaire qui inquiète le gouvernement américain à cette époque que l'impact de l'IA sur l'économie américaine, le risque majeur mis en avant étant que l'informatique japonaise dépasse celle des États-Unis. Ainsi, le risque identifié était l'automatisation généralisée des tâches, le remplacement des travailleurs humains par les machines et, à ce titre, que les gains de productivité ne bénéficient qu'aux Japonais. En réaction, les Américains ont lancé un programme d'intelligence artificielle de 1 milliard de dollars dans les années 1980, soit un montant gigantesque et inédit à cette époque pour un tel domaine. À l'orée des années 1990, le Japon est entré dans une crise financière et économique catastrophique, qui a mis totalement fin aux espoirs japonais dans ce domaine. Dès lors, la compétition internationale autour de cette technologie s'est éteinte, pour ne ressurgir que vingt-cinq ans plus tard, avec l'émergence d'un nouveau rival stratégique : la Chine.

Pour évoquer l'essor de la Chine dans l'intelligence artificielle, il faudrait l'inscrire dans le temps long et remonter jusqu'au XIXe siècle, aux guerres de l'opium et au sac du Palais d'Été par les troupes britanniques et françaises en 1860, pour comprendre comment un empire conservateur, scrupuleusement attaché à ses traditions et réfractaire à la modernité occidentale, en est venu à épouser les canons du développement technologique européen, puis américain à partir de la seconde guerre mondiale. Il faudrait également expliquer le changement profond intervenu à la mort de Mao Zedong et son remplacement par Deng Xiaoping. Je vous renvoie ici aux très belles pages que l'anthropologue Maurice Godelier a consacrées à cette question.

Depuis les années 1970, la politique scientifique et technologique a progressivement gagné le rang de priorité nationale dans l'agenda du parti communiste chinois. À cet égard, l'intelligence artificielle ne dévie pas des objectifs que se sont fixés les hiérarques du parti il y a un demi-siècle et qui peuvent être attribués à toutes les puissances qui se rêvent en puissances technologiques numériques, y compris dans le domaine de l'intelligence artificielle. Ces objectifs sont clairement énoncés dans le plan de développement de la nouvelle génération d'intelligence artificielle, dévoilé par le Conseil des affaires de l'État en juillet 2017.

Le premier objectif de ce plan est d'ordre économique : la promesse de l'intelligence artificielle est de produire ou d'aider à produire des biens et des services, en se passant le plus possible des humains, même si en réalité cela conduit l'affectation d'êtres humains à des tâches subalternes, redondantes, extrêmement mal rémunérées et malgré tout essentielles pour entraîner une intelligence artificielle. Sur ce sujet, je vous renvoie aux travaux du sociologue Antonio Casilli, et notamment à son livre En attendant les robots. En résumé, le but, fût-il illusoire en l'état, consiste à dégager des gains de productivité jusqu'à l'automatisation complète des tâches et l'élimination non moins complète du facteur travail humain, ce qui n'est pas un atout négligeable dans un pays où la démographie est en berne depuis 2017.

Le second objectif est, lui, d'ordre sociopolitique. Comme tout régime politique et a fortiori comme tout régime politique autoritaire, le régime chinois a, depuis le commencement, mis en place des dispositifs de contrôle social et de régulation des rapports sociaux sous l'angle de la surveillance, de la censure, de la propagande et de la répression, afin de maintenir sa propre stabilité.

Le plan IA de la Chine embrasse cette perspective, comme le montre sa section trois, et notamment deux sous-sections intitulées, pour l'une, « Promouvoir une gouvernance sociale intelligente » – dotée des armes de l'intelligence artificielle – et, pour l'autre, « Utiliser l'intelligence artificielle pour renforcer les capacités en matière de sûreté et de sécurité publique ». De fait, des dispositifs d'intelligence artificielle à des fins de contrôle de la population sont en place depuis quelques années, notamment dans la province du Xinjiang, où vit une importante communauté ouïghoure. Nous savons à ce titre que des technologies de cette sorte ont déjà été mises en place, notamment dans le cadre des manifestations ayant eu lieu à Hong Kong il y a quelques années.

Que pouvons-nous en conclure ? Tout d'abord, le développement de l'intelligence artificielle et plus généralement des technologies émergentes est indissociable d'une forte intervention étatique, qui peut prendre différents chemins, bien entendu. Il faut bien retenir que les financements et les innovations privés en intelligence artificielle reposent sur des bases étatiques et en particulier militaires, contredisant le mythe de l'entrepreneur autonome. En réalité, le monde des technologies avancées est un monde d'États, de politique industrielle, de financement public de la recherche, de programmes militaires. Seul l'État peut concéder des investissements aussi importants, dont la rentabilité est incertaine. Seul l'État peut garantir à des entreprises un retour sur investissement à l'abri des fluctuations du marché. Ce n'est pas un hasard si les grandes entreprises du numérique proviennent d'États interventionnistes, qui ne lésinent pas sur les dépenses militaires et les contrats à long terme.

Je termine cette intervention par un pas de côté, qui peut s'assimiler à une remarque de bon sens, pour embrasser du regard tous les enjeux que soulève l'intelligence artificielle : les individus ; les organisations ; les entreprises ; les États qui financent l'intelligence artificielle et, indépendamment de leurs objectifs propres, ont pour but la substitution la plus large possible des machines aux êtres humains, afin de dégager des gains de productivité au sens large.

Ces machines sont jugées plus performantes, moins coûteuses. Elles ne perçoivent pas de salaires, ni d'allocations, ni de pensions de retraite. Elles sont aussi moins dangereuses parce qu'elles ne sont pas susceptibles, sauf innovations radicales, de faire grève, de manifester, de refuser d'obéir aux ordres ou de se révolter. Si l'on se met à la place d'un État belligérant, il peut sembler plus efficient d'un point de vue politique et des buts de guerre, de remplacer les soldats par des machines, ne serait-ce que pour éviter les réactions de la population.

Évidemment, cette recherche de productivité pose des questions essentielles. Que fait-on d'une masse importante de la population sans emploi ou reléguée à des tâches annexes qui ne lui permettent pas de subvenir à ses besoins ? Quels sont les débouchés d'une entreprise dont la clientèle se retrouverait impécunieuse, incapable de consommer le fruit de la production de l'intelligence artificielle ? Comment maintenir la confiance d'une population, et donc étouffer ses élans séditieux, si son lien à la puissance publique est intermédié par des machines, qui plus est des machines dont le fonctionnement est, par nature, opaque ? En effet, c'est bien là un trait distinctif de l'intelligence artificielle que de produire des résultats sans que l'on ne sache exactement comment elle y est parvenue.

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

Je discerne cinq enjeux internationaux majeurs en matière d'intelligence artificielle : un enjeu géopolitique, un enjeu militaire, un enjeu de gouvernance – donc normatif –, un enjeu de souveraineté et un enjeu démocratique.

S'agissant de l'enjeu géopolitique, afin d'éviter de sombrer dans les discours parfois hystériques que l'on entend ici ou là, il faut absolument garder la tête froide et mener un travail de déconstruction des récits, ces « narratifs » qui viennent d'ailleurs en partie de la Silicon Valley. De manière pragmatique, les enjeux géopolitiques de fond portent simplement sur la rivalité entre les États-Unis et la Chine autour de la question des systèmes d'intelligence artificielle (SIA), en particulier ceux à usage militaire. Ce qui se joue ici est en effet le leadership et, plus largement, la recomposition de l'échiquier géopolitique.

De ce point de vue, la question technologique, en particulier l'intelligence artificielle, est absolument nodale dans cette rivalité. De manière méthodique, il faut déconstruire l'IA selon sa chaîne de valeur. En amont, se pose ainsi la question des semi-conducteurs, et notamment des semi-conducteurs à très fine gravure, qui cristallisent cette hystérisation entre les États-Unis et la Chine. Nous avons ainsi vu apparaître avec le fameux discours de Jake Sullivan du 22 septembre 2022 le concept de « dérisquage », qui a été atténué un peu plus tard par l'autre concept, plus européen, de « découplage ». En novembre 2023, les deux présidents Joe Biden et Xi Jinping se sont rencontrés à San Francisco et ont décidé justement de maintenir le canal de communication ouvert, notamment sur la question de la gouvernance de l'intelligence artificielle entre les deux blocs.

L'IA est donc un enjeu stratégique pour le leadership : un outil de soft et de hard power. ChatGPT véhicule ainsi des valeurs, des visions, un soft power américain. Sam Altman, le dirigeant d'OpenAI l'a dit clairement lors de son audition devant le Congrès, en mai 2023 : l'un des enjeux de la diffusion de ChatGPT et d'OpenAI porte, selon lui, sur la protection des valeurs démocratiques occidentales, sous-entendu les valeurs démocratiques américaines. S'agissant du hard power, il existe deux champs d'expérimentation actuels : l'Ukraine et évidemment Gaza, où les intelligences artificielles sont aujourd'hui à l'œuvre et permettent aux technologies américaines d'expérimenter un certain nombre d'outils et de logiciels.

Cet enjeu géopolitique et cette rivalité entre les États-Unis et la Chine se cristallisent autour de la question des semi-conducteurs – notamment l'entreprise Taiwan Semiconductor Manufacturing Company ou TSMC – et expliquent l'ensemble des mesures prises par les États-Unis pour bloquer ou freiner le développement chinois dans cette révolution que constitue l'IA. Ainsi, avant d'être un outil, l'intelligence artificielle est une infrastructure, un socle à partir duquel se déploie le reste, c'est-à-dire le fait politique, le fait militaire, le fait industriel, le fait économique et le fait social. Dans ce cadre, un continuum se met en place, par exemple à travers les réseaux sociaux, la désinformation et l'intelligence artificielle générative. Pour comprendre l'intelligence artificielle, il faut la penser en système, afin de pouvoir diagnostiquer ces nouvelles structures de pouvoir et de puissance qui sont en train de se mettre en place.

Ensuite, le deuxième enjeu est d'ordre militaire. Ainsi que Charles Thibout l'a évoqué, dès 2017, les plans quinquennaux chinois présentent l'ambition de la Chine de devenir la première puissance militaire de rang mondial en 2049. En réalité, la rivalité Chine – États-Unis a débuté en 2008, sous la présidence Obama, qui marque le début de la stratégie de pivot vers l'Asie et la fabrique d'un ennemi. De fait, la puissance américaine s'est souvent construite contre quelque chose. L'année 2008 marque ainsi le début d'une stratégie de containment. Dans ce registre, les scandales Huawei et TikTok participent de cette même logique de rivalité et relèvent de la sécurité nationale américaine. On retrouve cette logique dans l' executive order d'octobre 2023.

L'intelligence artificielle est aujourd'hui un carburant, un outil mis au service de la puissance de feu conventionnelle et classique. En Ukraine, l'IA est utilisée par les deux camps, les Ukrainiens étant très fortement aidés par les États-Unis, avec des technologies comme celles de Starlink, Palantir, Clearview AI, AWS, Google et Microsoft. La cyberdéfense ne peut être envisagée aujourd'hui sans le volet relatif à l'intelligence artificielle, à la fois pour créer, massifier la menace ou la contrecarrer. Plus récemment, le conflit entre Israël et le Hamas a montré aussi l'usage de logiciels d'intelligence artificielle pour du ciblage, comme en témoignent les révélations sur les logiciels Lavender ou Habsora.

La question philosophique de l'usage de ces nouveaux produits devient rapidement politique et géopolitique. L'IA ravive le vieux rêve impossible des « frappes chirurgicales ». En réalité, en fonction des dommages collatéraux qui sont acceptés, elles peuvent devenir littéralement des armes de destruction massive. Dès lors, se posent les questions de la responsabilité et de la gouvernance.

Enfin, les enjeux militaires portent sur la question des armes autonomes, dont la définition ne fait absolument pas consensus. De plus, au-delà de quelques vœux pieux et de livres blancs, compte tenu de la rivalité entre les États-Unis et la Chine, il n'existe pas de forte volonté de réguler ou d'interdire ce type d'armes. Je crains qu'il ne faille attendre, comme d'habitude, l'accident, le scandale et la mobilisation des opinions publiques pour que les lignes bougent. Quoi qu'il en soit, il s'agit de l'un des grands sujets de discussion sur la gouvernance internationale en matière d'intelligence artificielle. Il y a quelques jours, un sommet s'est d'ailleurs tenu à Vienne pour lancer un appel à la régulation des armes autonomes, sans que cela n'aboutisse pour l'instant à quelque chose.

Troisièmement, les enjeux portent sur la gouvernance internationale, et donc normative, de l'intelligence artificielle. Aujourd'hui, les instances multinationales véhiculent une vision très occidentalocentrée. La Chine, puissance technologique, conteste cette vision, qui serait accaparée par les démocraties occidentales, et en particulier par les États-Unis. Cette bataille normative sur les standards et les usages se joue actuellement, ce qui explique d'ailleurs la prolifération de sommets, de réunions, de commissions et de rapports. Deux scénarios principaux sont possibles à ce stade : une collaboration globale et internationale ou une fragmentation régionale. Il est probable que nous nous dirigions à très court terme vers quelque chose de mou, une « coopétition ».

Ensuite, en matière de gouvernance, il convient de souligner le rôle des BRICS – groupe constitué des Brésil, Russie, Inde, Chine et Afrique du Sud – et BRICS+ – groupe des BRICS élargis à l'Argentine, l'Égypte, l'Éthiopie, l'Iran, l'Arabie saoudite et aux Émirats arabes unis. Certains pays nourrissent ainsi de grandes ambitions, comme l'Inde, mais aussi l'Arabie saoudite et les Émirats arabes unis. Reste à savoir si ces pays parviendront à établir un agenda commun, en particulier au sein des instances multilatérales, dans la mesure où leurs intérêts diplomatiques et parfois géostratégiques ne sont pas toujours convergents et où certains sont rivaux, y compris en matière technologique. Une autre possibilité serait qu'ils fassent sécession. La question reste ouverte.

L'avant-dernier enjeu concerne la souveraineté, qui conduit à mettre en lumière la fameuse « troisième voie » européenne. J'estime à ce titre que la France est plus ou moins hors sujet. Malgré la multiplication de commissions et de rapports, notre système d'innovation national est illisible et nous éprouvons une difficulté culturelle à faire travailler le public et le privé, en dehors de la base industrielle et technologique de défense (BITD). Nous éprouvons également un problème de compréhension de la dualité de ces technologies, qui sont à la fois civiles et militaires. Or les stratégies gagnantes dans le monde sont généralement construites autour d'une fusion entre les mondes civils et militaires.

Le cinquième et dernier enjeu est évidemment démocratique. Au-delà de la question de la régulation, la loi européenne sur l'intelligence artificielle ( AI Act ) ne couvre pas véritablement le sujet, à part le watermarking, c'est-à-dire un marquage des contenus qui seront générés par les IA génératives. À ce titre, l'exemple argentin est particulièrement intéressant. À l'occasion des élections argentines, nous avons vu apparaître des cheap fakes, c'est-à-dire des deepfakes absolument grossiers mais qui n'ont pas réellement posé problème. Cette question implique à son tour des enjeux en matière d'éducation et d'acculturation, qui ne peuvent pas passer simplement par la législation.

Enfin, les acteurs nouveaux demeurent toujours un angle mort dans le débat public français ; les géants technologiques ou Big Tech américains ou chinois deviennent des acteurs politiques, géopolitiques, militaires à part entière. Il ne s'agit pas de les diaboliser ou de se réfugier dans un souverainisme complètement illusoire et fantasmatique mais plutôt de se demander comment travailler avec eux et où sont nos intérêts convergents, à condition de maintenir une souveraineté a minima sur les données les plus confidentielles, les plus sensibles ou secret-défense. Il s'agit là de champs entiers en discussion, qui demeurent ouverts et ne sont absolument pas clos aujourd'hui.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Je vous remercie pour ces deux éclairages très importants. Nous avons très bien compris à quel point ces phénomènes d'intelligence artificielle sont au cœur d'une modification des rapports de domination, et notamment le plein développement de ce qu'on appelle « l'hybridisme », indissolublement civil et militaire.

Néanmoins, nous nous interrogeons sur l'automatisation sous toutes ses formes, qui concerne à la fois une extériorisation des tâches d'exécution, de prise de décision, de conception et enfin de prescription. Il y a là une artificialisation des niveaux d'action de l'esprit humain qui est de plus en plus considérable et qui donne un peu le vertige.

Je laisse à présent la parole aux orateurs des groupes politiques.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Au nom du groupe Renaissance et apparentés, je vous remercie pour vos interventions très intéressantes. Ce sujet me passionne et j'y travaille depuis quelques mois, tant pour la commission supérieure du numérique et des postes, composée de députés et de sénateurs, que pour l'Assemblée parlementaire du Conseil de l'Europe. J'en suis arrivée à la conclusion que l'intelligence artificielle est comme la langue d'Ésope : elle peut être la meilleure et la pire des choses.

J'observe également que la France doit jouer un rôle particulier grâce à ses talents mais aussi à l'existence d'une politique publique qui porte ses fruits depuis 2018 et le rapport Villani. Plus récemment, de nombreux rapports ont également été produits, dont celui de la commission de l'intelligence artificielle, qui préconise d'investir 5 milliards d'euros. De même j'observe les annonces d'investissements en France effectuées par des entreprises comme Google, Microsoft, Amazon. Enfin, la France organisera un sommet très important sur l'IA en 2025. Je voudrais aussi rendre hommage à nos services publics, qui utilisent l'intelligence artificielle et opèrent ainsi un effort d'acclimatation de la population aux bienfaits d'une automatisation du travail.

Simultanément, la régulation est également une nécessité. Madame Mhalla, vous avez souligné la profusion de niveaux de régulation, en évoquant notamment l' AI Act de l'Union européenne. Ce dernier me semble intéressant, dans la mesure où il permet de réguler selon les risques et de rester sur cette ligne de crête, en évitant de tomber dans un excès de régulation ou dans un interventionnisme étatique trop marqué. Je pense à ce titre que l'avenir est sans doute à un traité international, comme il en existe pour la circulation aérienne ou maritime.

Il sera également nécessaire de s'occuper de la question des droits d'auteur, des impacts sociaux et des capacités cognitives. Pour garder la maîtrise, il nous faut conserver certaines compétences et surtout l'esprit critique. Aussi, pour revenir aux préoccupations de notre commission des affaires étrangères et aux enjeux géopolitiques, il est nécessaire de se pencher sur l'utilisation de robots tueurs qui violent le droit international humanitaire. Nous devons aussi nous intéresser aux enjeux démocratiques, environnementaux – l'IA consomme beaucoup d'énergie et d'eau – et de souveraineté.

Comment pouvons-nous nous prémunir contre les risques d'ingérence, compte tenu de l'intensification des investissements étrangers que j'ai mentionnés ?

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

Pour ma part, j'estime que notre stratégie de régulation européenne à travers la loi sur l'intelligence artificielle n'est pas aboutie. L' AI Act présente l'avantage de redéfinir et réaffirmer nos valeurs fondées sur les droits fondamentaux, les droits de l'Homme. J'y souscris d'autant plus qu'il était nécessaire de préempter la régulation internationale, dans l'idée d'insuffler un « Brussels effect ».

Il n'en demeure pas moins que le texte est assez corseté, avec une architecture qui peut être rapidement lourde et bureaucratique. Nous rejoignons ici le dilemme éternel : l'innovation versus la régulation, que nous ne parvenons pas exactement à résoudre en Europe. L'approche chinoise est davantage itérative, tout en plaçant en son cœur un enjeu de sécurité nationale et surtout de contrôle social domestique, qui pose d'ailleurs d'immenses questions sur la possibilité qu'aura la Chine de développer ses propres systèmes d'intelligence artificielle. En effet, plus vous enfermez, plus vous freinez votre propre développement technologique.

De leur côté, les États-Unis ont davantage procédé par des guidelines, des grandes consignes à destination des agences fédérales, en mêlant la question de la sécurité nationale à celle du développement économique et industriel, puisque la capacité d'innovation constitue aussi un instrument de puissance. Cet élément sous-tend d'ailleurs aujourd'hui notre discours et notre stratégie de réindustrialisation.

S'agissant de la France, je le redis : notre système d'innovation national est illisible, en dépit de la multiplication de strates, de rapports et de dotations supplémentaires. Nous ne sommes pas, aujourd'hui, un grand pays technologique. Plutôt que d'être des suiveurs des États-Unis et de la Chine, il faut commencer par faire une cartographie de la France, de nos forces et faiblesses. Proclamer que l'on veut développer l'intelligence artificielle ne veut rien dire d'un point de vue économique et industriel. Nous devons cerner où sont nos avantages compétitifs.

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

Madame la députée, il m'a semblé relever l'esquisse d'une contradiction dans vos propos, dans la mesure où vous vous êtes félicitée des investissements étrangers récents, notamment des grandes entreprises du numérique, tout en pointant les risques d'ingérences étrangères via ces mêmes investissements étrangers.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

L'intelligence humaine, au cours de son histoire, a permis à nos sociétés de se transformer, de passer de rien à la civilisation, de vivre la révolution industrielle, d'aller dans l'espace, de marcher sur la lune. Aujourd'hui, la civilisation humaine vit une nouvelle révolution : celle de l'intelligence artificielle. Pour ceux de ma génération, on pourrait ainsi imaginer que les films de science-fiction se réalisent vingt ans plus tard.

Devons-nous avoir peur ou devons-nous nous en réjouir ? Il s'agit d'une question importante. Nous devons évoluer, nous adapter à cette forme de prouesse humaine qui doit nous permettre de progresser tout en posant des garde-fous. Notre mission pour notre pays consiste à garantir notre souveraineté numérique tout en développant nos propres applications et ainsi les promouvoir dans le monde entier. La souveraineté numérique française doit devenir le nouvel enjeu des décennies à venir.

La question éthique constitue à ce titre une grande préoccupation. En effet, il faut encadrer l'intelligence artificielle pour ne pas dépasser certaines limites, tout en respectant les libertés fondamentales et, surtout, pour éviter la manipulation de l'information et la violation de la vie privée. Il est aujourd'hui possible de réaliser une vidéo en utilisant l'image et la voix d'une personne mais en y ajoutant un discours contraire à ce que cette personne pense en réalité. Cette manipulation devenue très simple peut représenter un danger pour nos démocraties et une nouvelle arme utilisée par nos ennemis.

La question de la coopération internationale doit être encouragée, au même titre que celle de sa réglementation. Analyser l'intelligence artificielle peut nous être utile en matière de sécurité car elle permet de traiter d'énormes volumes de données et, ainsi, de nous renforcer dans la gestion des menaces. Garder l'humain au cœur de l'intelligence artificielle est essentiel car l'empathie, la créativité et les valeurs éthiques humaines guident et enrichissent les capacités de l'IA, assurant qu'elle reste un outil au service du bien-être et de l'épanouissement de l'humanité.

L'intelligence artificielle permet d'écrire un discours en moins de trente secondes, voire un roman, mais elle ne remplacera jamais Molière, Albert Camus ou Charles Baudelaire. Aucune machine ne pourra remplacer le génie humain. Malgré des inquiétudes légitimes, il nous faut accompagner l'intelligence artificielle, afin que cette dernière soit au service de l'homme, tout en gardant notre sens critique.

Ne pensez-vous pas que le plus grand défi en ce monde n'est pas tant le manque d'intelligence que le manque d'humanité ?

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

Je ne peux répondre à votre question philosophique, qui plus est dans le temps qui m'est imparti. Je relève cependant vos propos concernant la souveraineté numérique et l'idée de développer finalement nos propres technologies, si je vous ai bien entendue, pour concurrencer les grandes firmes du numérique. La France a essayé de le faire, notamment en 2006, à travers le projet Quaero lancé par Jacques Chirac pour créer un moteur de recherche concurrent de Google. D'abord projet européen, celui-ci est devenu projet franco-allemand et a été pris en charge à l'époque par France Télécom et Thomson.

Ce projet s'est avéré être un échec cuisant : il n'est pas possible d'innover à partir de rien. Derrière toutes les technologies à succès, se trouve en effet une histoire. Les moteurs de recherche de Google sont en réalité l'aboutissement de décennies de recherche, de liens entre Stanford, le département de la défense et la communauté du renseignement. Le moteur de recherche de Google a été conçu par deux doctorants de Stanford, Larry Page et Sergey Brin, dont une partie des recherches étaient financées à la fois par la Fondation nationale pour la science – National Science Foundation ou NSF – mais aussi par des industriels – IBM, Hitachi –, la NASA – National Aeronautics and Space Administration –, le département de la défense, la NSA – National Security Agency. L'écosystème a ensuite été complété par des firmes de capital-risque.

Je ne suis pas grand clerc mais il me paraît illusoire de penser que nous pourrions disposer d'une telle infrastructure, au moins à court terme. De telles briques ne peuvent être posées que petit à petit.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Je retiens de vos propos des éléments qui correspondent aux positions de La France insoumise. Vous préférez, d'une certaine façon, revenir aux infrastructures, aux politiques publiques, plutôt que de traiter le sujet par le petit bout de la lorgnette, celui des usages, qui est surtout celui traité par les médias. Je crois pour ma part que cet aller-retour de l'usage vers l'infrastructure et la politique constitue ce qui doit nous intéresser désormais. À ce titre, il sera nécessaire de mener une discussion sur l'innovation et les modèles de financement de l'enseignement supérieur. De fait, de nombreuses réformes réalisées ces vingt dernières années ont affaibli l'enseignement supérieur et la recherche et ont bouleversé ce qui était un modèle mertonien du financement de l'innovation.

Quels sont, d'après vous, les perspectives ou les effets de la rencontre de la puissance de calcul quantique et du développement de l'IA ? Ensuite, comme tout secteur scientifique, celui-ci progresse par la coopération et le partage. Simultanément, la question centrale concerne la souveraineté, compte tenu de l'enjeu sur les données. Seriez-vous en mesure de définir ce qu'est le bon niveau de partage ?

Vous avez déjà évoqué le sujet des armes autonomes. J'étais à la conférence de Vienne évoquée par Mme Mhalla. Cent-quarante pays étaient représentés, et 900 participants y assistaient ; j'étais d'ailleurs le seul parlementaire français. Vous avez fait part de votre pessimisme sur les perspectives de régulation concernant les armes autonomes. Pourtant, une stratégie est proposée par le secrétaire général des Nations Unies, M. António Guterres. Elle consiste à sortir la négociation du cadre genevois de la convention sur certaines armes, pour en faire l'objet spécifique d'une négociation à New York. Pensez-vous que cette stratégie pourrait être pertinente, sans menacer les intérêts français, si jamais la France y adhérait ? Pour ma part, je le crois. Je ne pense pas que l'intelligence artificielle soit de nature à conférer une supériorité opérationnelle telle que nous devrions renoncer à agir, y compris dans un cadre qui n'inclurait pas la Russie ou la Chine, par exemple.

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

Pour ma part, j'estime qu'il nous faudra travailler avec les géants technologiques américains. Microsoft a ainsi annoncé il y a quelques mois un investissement de 3 milliards de dollars en compagnie du gouvernement britannique pour continuer le développement des infrastructures, des data centers, des capacités de calcul et le financement de la recherche fondamentale. Il faut également relever que le gouvernement britannique essaye de prendre une position de leadership sur l'IA, notamment sur la question de la désinformation. Il a également proposé récemment, sur le modèle du Conseil européen pour la recherche nucléaire (CERN) un « CERN pour l'IA » qui serait installé à Londres. Cet exemple témoigne de la concurrence entre capitales pour accueillir d'éventuelles prochaines instances. À l'occasion du sommet Choose France, les mêmes géants (Microsoft, Google, Amazon) ont proposé la même stratégie mais formulée de manière différente, afin de ne pas heurter une sensibilité plus élevée sur les questions de souveraineté en France.

En matière de souveraineté, il importe de trouver la juste mesure. La société Mistral AI constitue, à ce titre, un cas d'école intéressant, compte tenu de la composition de son capital et des hyperscalers américains qu'elle utilise. La question de la souveraineté implique donc celle du bon dosage de la coopération avec les géants du numérique, de manière pragmatique.

S'agissant des armes autonomes, je ne suis pas pessimiste mais réaliste. Dans le contexte géopolitique actuel, je vois mal pourquoi les États-Unis et la Chine accepteraient d'aller au-delà de quelques guidelines générales. Cela étant dit, les propositions de l'Organisation des Nations Unies (ONU) me semblent intéressantes, dans la mesure où elle essaye elle aussi de conserver son leadership normatif. Ici aussi, la question de la coopération globale ou de la fragmentation demeure ouverte.

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

Vous nous avez interrogés sur les armes létales autonomes. Je ne suis pas juriste mais il me semble que nous disposons déjà d'un cadre juridique international assez fort pour encadrer l'usage de ces armes. Ainsi, le droit international humanitaire permet de fixer notamment des normes en termes de responsabilité, de niveau de proportionnalité et de discrimination de l'usage de ces armes : une arme, quelle qu'elle soit, doit respecter certains principes, et notamment le fait d'effectuer un tir proportionné par rapport à la cible. L'arme doit également être discriminatoire, c'est-à-dire qu'elle doit pouvoir limiter son impact, de façon suffisamment précise, afin de pouvoir cibler des combattants et non des civils situés à proximité.

Se pose naturellement la question de la responsabilité juridique dans l'usage de cette arme autonome. Précisément, est-elle complètement autonome en excluant l'humain de la boucle décisionnelle ? Qui est l'opérateur ? Est-ce le chef militaire, le responsable politique qui a autorisé la fabrication et l'usage de ces armes ? Pour l'instant, ces questions ne sont pas réglées et il est effectivement nécessaire d'agir en ce sens, en s'appuyant sur les dispositifs juridiques existants, notamment la convention d'Ottawa.

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

En 2021, la France a pour sa part déclaré qu'elle ne fabriquerait, ni n'utiliserait ces armes létales autonomes. Ce faisant, ne prenons-nous pas une forme de retard en termes de realpolitik sur ce sujet ?

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Au nom du groupe Démocrate, Modem et apparentés, je tiens d'abord à remercier les différents intervenants de nous avoir présenté leurs travaux et réflexions sur le sujet devenu incontournable de l'IA, y compris dans les domaines qui intéressent notre commission : les relations internationales.

Ces dernières années, l'Union européenne n'a cessé de construire et de préciser sa politique numérique, notamment depuis la mise en place du règlement général sur la protection des données (RGPD). Nous, Européens, nous nous sommes lancés dans la course dont la Chine et les États-Unis ont pris la tête : Madame Mhalla, vous nous avez parlé de « troisième voie ».

Si l'intelligence artificielle entraîne des bénéfices économiques, sociaux ou encore stratégiques, elle comporte aussi des risques pouvant potentiellement porter atteinte à nos intérêts et à nos droits. L'Union européenne est en consciente et s'est donnée pour objectif de défendre ses valeurs en luttant contre les risques associés au développement irrégulier de ces systèmes : enjeux de cybersécurité, lutte contre la concurrence déloyale des informations et protection des données, notamment. Elle veut promouvoir des systèmes d'intelligence artificielle sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement.

L'enjeu de ces systèmes concerne notamment l'utilisation grandissante des intelligences artificielles génératives, qui a conduit les États à réfléchir à la définition d'un cadre réglementaire plus strict. Un cadre juridique provisoire a été discuté en décembre dernier au Royaume-Uni lors du sommet sur la sécurité de l'intelligence artificielle, dont la France devrait accueillir la seconde édition.

En accueillant cet événement, la France démontre qu'elle entend jouer un rôle de premier plan dans le développement de l'intelligence artificielle et de sa régulation. Nous faisons partie des leaders européens dans ces technologies et comptons bien rester ambitieux et innovants. Pouvez-vous nous parler de cet événement ?

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

Il me semble que la France dispose déjà d'un outil, le Haut-commissariat au plan. En effet, construire une stratégie techno-industrielle, entre autres en matière d'intelligence artificielle, suppose en réalité de jouer sur deux temporalités. Il faut à la fois être capable de s'adapter dans le très court terme aux surprises et bonds technologiques mais aussi d'établir une vision de très long terme sur ce que devrait être la France dans vingt à trente ans.

Pour y parvenir, il faut au préalable comprendre où sont nos stratégies de niche, ce qui suppose de cartographier nos actifs stratégiques. Il importe de ne plus saupoudrer les financements mais aussi de les cibler le plus intelligemment possible et de devenir incontournables dans certains domaines, pour ne pas être suiveurs des États-Unis dans leur totalité. Là est selon moi le véritable sens de la souveraineté. Ici, on peut notamment penser à la stratégie développée par Israël dans le cyber.

Enfin, il me faut évoquer la question africaine. Aujourd'hui, l'exportation du modèle chinois se réalise sur ce continent. Nous connaissons la lutte informationnelle mise en place par la Russie mais les infrastructures, les réseaux et la connectivité sont déployés par la Chine. J'ai ainsi lu un article récemment dans The Times qui évoquait le lancement d'écoles de formation de dictateurs. Il existe bien une continuité d'exportation du modèle techno-autoritaire chinois en Afrique. De ce point de vue, l'Europe pourrait peut-être agir sur ce continent, en termes de rayonnement, de soft power, d'exportation de nos normes et de nos valeurs phares, selon les modalités du Brussels effect.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

En termes de formation, j'observe que l'école Saint-Cyr Coëtquidan a aussi contribué à la formation de nombreux chefs d'État africains par le passé.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

La maîtrise de ces nouvelles technologies et de l'intelligence artificielle en particulier constitue un élément de la capacité d'influence dans les prochaines décennies, que ce soit en termes de soft power et même en termes de hard power, puisque vous évoquez également les déclinaisons militaires et technologiques.

Il est d'ailleurs très paradoxal que tous ces sujets sur les technologies de pointe et sur l'intelligence artificielle prennent autant de place au moment où les relations internationales marquent plutôt un grand pas en arrière vers la conflictualité, les rapports de force, la guerre à haute intensité « à l'ancienne » et son cortège de destructions, de barbaries, d'obus ou de tranchées, même si les drones et le guidage intelligent des obus et missiles tiennent une large place.

Un rapport a récemment été remis au président de la République par la commission de l'intelligence artificielle, coprésidée par Anne Bouverot, présidente du conseil d'administration de l'École normale supérieure, et par l'économiste Philippe Aghion. Je vous ai sentis en partie réservés sur la tonalité raisonnablement optimiste de ces travaux dans la capacité de la France à figurer à la pointe de cette révolution technologique.

En conséquence, sur ce sujet comme sur bien d'autres, je pense qu'il convient de nous départir d'une certaine naïveté, naïveté dont s'encombrent plus rarement nos partenaires anglo-saxons et plus encore chinois. Nous l'avons vu ces derniers jours avec la visite d'État du président chinois en France ; il est encore difficile de considérer ce géant comme un partenaire. Nous l'envisageons plutôt comme un concurrent, un « rival systémique », tel que le Parlement européen l'avait qualifié, en 2019. De fait, ne pensez-vous pas qu'en matière d'intelligence artificielle également, l'enjeu de long terme n'est pas tant le leadership économique que la défense du modèle démocratique, libéral et le respect des libertés fondamentales et des droits de l'Homme ?

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

Je reviens à mes propos liminaires : les exemples américains et chinois montrent bien qu'il n'y a pas de développements technologiques importants endogènes sans l'intervention massive de l'État. Mais aujourd'hui, l'Europe et la France ne sont pas du tout dans cette optique, à part quelques petites enclaves, par exemple la direction générale de l'armement (DGA) pour notre pays. L'Europe se concentre sur la régulation et l'accompagnement des entreprises, sans intervention. D'une certaine manière, nous pensons qu'il faut laisser éclore le génie de chacun et que, miraculeusement, peut-être par les lois magiques du marché, nous parviendrons à une situation optimale.

Ce pari peut se défendre mais, pour l'heure, les grands modèles qui ont fonctionné, aux États-Unis ou en Chine, se sont appuyés sur une économie planifiée. J'insiste vraiment : cessons de croire le mythe des États-Unis libéraux, qui fonctionne certes très bien en termes de propagande internationale : dans les faits, il s'agit d'une économie planifiée, selon des modalités qui ont certes évolué au fil du temps.

Si le but de la France et de l'Europe consiste à développer une capacité endogène majeure à même de faire de nous des leaders en matière de technologies numériques, de façon indépendante des acteurs états-uniens ou chinois, j'ai le regret de constater que nous faisons fausse route pour le moment. Nous nous trompons. Si nous voulons nous diriger dans une autre direction, il faut dans ce cas indiquer laquelle nous voulons suivre.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Madame Mhalla, vous avez évoqué l'espèce de consensus international qui existe sur la nécessité de se doter d'une instance de gouvernance appropriée pour l'IA. Vous avez également mentionné le rôle que les BRICS pourraient jouer. Mais à quoi pourrait ressembler cette instance ?

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

Je me contenterai simplement de répéter ce que je disais tout à l'heure : les questions restent ouvertes. Différents scénarios sont envisageables. Soit nous parvenons à construire une gouvernance globale de l'intelligence artificielle qui pourrait être abritée par des instances multilatérales existantes ou ad hoc. Cette coopération globale est appelée par certains États mais, dans les faits, la communauté internationale demeure très tâtonnante, compte tenu des intérêts diplomatiques et géostratégiques divergents, quoi que l'on en dise. L'autre possibilité est celle d'une régionalisation, d'une balkanisation.

En matière de régulation globale et internationale, l'un des enjeux porte sur les usages techniques de ces outils. À ce sujet, on observe un léger retard enregistré par la Chine par rapport aux États-Unis sur la question de l'IA générative. Aujourd'hui, les modèles des IA génératives – le pluriel étant de rigueur – sont d'abord et avant tout américains. Dans ces conditions, n'allons-nous pas aboutir finalement à un système international à double vitesse marqué par un découplage croissant, pour parvenir à des systèmes qui cohabitent plus qu'ils ne dialoguent, ou alors à la marge ? Je n'ai toujours pas la réponse à cette question.

Ensuite, le mouvement des BRICS doit être suivi de très près. Lors de leur réunion de l'été 2023 à Johannesburg, ceux-ci ont ainsi établi leur groupe d'étude sur l'intelligence artificielle, qui comporte un très grand volet en matière d'éducation. À ce titre, il me semble à nouveau nécessaire d'accorder une attention particulière à l'Afrique, pour une raison très simple : si l'on parle d'Europe puissance ou de France puissance, il sera nécessaire de redéfinir la morphologie de notre relation à l'Afrique, compte tenu de notre destin commun autour de la question technologique.

J'ai travaillé sur un certain nombre de projets, notamment technologiques, en Afrique et je constate que très peu d'acteurs français se positionnent sur les appels d'offres concernant les villes intelligentes et les infrastructures. Le discours sur la commande publique est certes nécessaire mais insuffisant : si nous n'allons pas aussi chercher nos marchés là-bas, nous passerons à côté d'une bataille industrielle et de soft power.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Vous avez tout à fait raison et cette commission est pleinement consciente de cette dimension.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Je partage avec vous l'idée que ces grandes technologies nécessitent une planification, comme nous l'expliquons depuis des décennies. Le deuxième aspect – vous en avez parlé – concerne l'éducation. La France n'est pas à la hauteur sur la compréhension de l'intelligence artificielle, de ses possibilités et de ses risques. L'ONU s'alarme par exemple sur le risque de confier la bombe atomique à l'IA.

Je suis très attaché à la liberté et m'interroge sur la faculté de l'IA à pouvoir l'entraver, au regard des données personnelles qui sont déjà agglomérées par les systèmes numériques, qu'il s'agisse des téléphones, des moyens de paiement, sans parler de la reconnaissance faciale. Dès lors, je me dis que ma liberté peut être entravée par ceux qui maîtriseront ces systèmes d'intelligence artificielle, qu'il s'agisse des États mais surtout des entreprises privées.

En conséquence, il faudrait que la communauté internationale s'accorde sur une régulation, instaure des bornes, de la même manière qu'elle l'a fait en matière de clonage. Qu'en pensez-vous ?

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

M. Patrick Devedjian, avec qui j'entretenais des liens d'amitié profonds, formulait souvent cette maxime : « Ceux qui ont connu le pétrole avant la démocratie ne connaîtront jamais la démocratie ». Je me demande si cette même formule ne peut pas s'appliquer à l'intelligence artificielle : ceux qui connaîtront l'IA avant la démocratie connaîtront-ils la démocratie ?

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

De la même manière, il est loisible de se demander si les démocraties qui rencontrent l'intelligence artificielle demeureront des démocraties.

Vous évoquez la nécessité d'établir des bornes. Cependant, votre question présuppose finalement une distinction nette entre le public et le privé, entre l'État et les entreprises. Or, en sociologie politique, nous savons bien que les liens entre ces deux entités un peu abstraites sont effectivement très importants, quelle que soit la nature des régimes, aussi bien en Chine qu'aux États-Unis, en France ou en Europe. La question me semble donc plus compliquée.

S'agissant des libertés, la reconnaissance faciale et biométrique constitue effectivement un sujet extrêmement majeur mais je crois que les représentants de la nation disposent aujourd'hui des moyens de commencer à réguler l'action de l'État. En effet, nous voyons depuis quelques années les pouvoirs publics investir ce champ. Par exemple, l' AI Act autorise sous certaines conditions l'usage des outils d'identification biométrique en temps réel à distance, c'est-à-dire le fait de reconnaître des gens, notamment à partir de leur visage.

Les cas mentionnés sont spécifiques mais larges ; ils permettent suffisamment d'exceptions pour que nous puissions craindre des dérives. Dès lors, s'il fallait renforcer la question des libertés individuelles et fondamentales dans le domaine de l'intelligence artificielle, il faudrait d'abord que la représentation nationale le fasse s'agissant de l'État, sans négliger évidemment la question des entreprises.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

De nombreux acteurs gravitent autour de cette innovation et de nombreuses choses restent à découvrir. L'Union européenne a été la première à établir une législation concernant l'IA, en adoptant en mars dernier la proposition de règlement établissant des règles harmonisées sur l'intelligence artificielle. Ce texte, une première mondiale, soutient certes l'innovation mais vise également à protéger les droits et la sécurité. S'il est validé par le Conseil européen, il entrera en vigueur en 2025.

L'intelligence artificielle semble devoir entraîner des bouleversements dans nos quotidiens mais des impacts sont également à envisager dans les relations géopolitiques. Le règlement voté le 13 mars 2024 vise à « protéger les droits fondamentaux, la démocratie, l'État de droit et la durabilité environnementale contre les risques liés à l'IA, tout en encourageant l'innovation, en faisant de l'Europe un acteur de premier plan dans ce domaine ».

L'Europe cherche donc à se protéger. Elle interdit certains usages de l'IA, comme les systèmes de notation citoyenne ou la manipulation du comportement. Mais au-delà de ce texte fondateur, l'Europe est-elle bien intégrée dans la course vers cette nouvelle technologie ? Cette course est-elle déjà gagnée par un autre acteur ? La France doit-elle faire cause commune avec l'Europe ou doit-elle parier sur ses propres capacités ? Notre pays a-t-il d'ailleurs la capacité réelle et les moyens d'innover dans ce domaine ? Au-delà des rivalités étatiques et du besoin de savoir développer et d'utiliser cette technologie de manière souveraine, les entreprises privées sont-elles avantagées dans cette période de défrichage de l'intelligence artificielle ?

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

L'Europe cherche-t-elle véritablement à devenir une puissance en matière d'intelligence artificielle autonome ? Je n'en suis pas sûr pour le moment. Je prépare actuellement une thèse sur les rapports entre Google et l'État. Au fil de mes recherches, j'observe la volonté des gouvernants d'attirer les investissements étrangers, prenant acte d'une certaine manière que nous ne serons jamais en mesure de recréer un Google, un Microsoft, un Amazon, un Apple, ce qui est peut-être d'ailleurs vrai. Leur objectif consiste donc à attirer ces entreprises en France, pour faire en sorte qu'elles diffusent leur technologie et infusent le tissu économique national. Tel est le pari effectué par les Français et les Européens, en règle générale.

En conséquence, à mon sens, la question de la souveraineté numérique européenne est presque une fausse question. Je comprends l'usage rhétorique qui peut en être fait mais je ne crois pas qu'il s'agisse de la direction que nos gouvernants empruntent aujourd'hui. En réalité, la logique à l'œuvre semble plutôt d'attirer ces investisseurs, de profiter de leurs technologies, d'essayer de les utiliser à bon escient pour accroître le produit intérieur brut (PIB) et l'emploi, en espérant de ne jamais se fâcher avec eux, ni avec leurs États de tutelle. Telle est la manière dont je perçois les choses.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Ceci est un peu inquiétant. En somme, ils apportent la technologie et nous apportons Versailles.

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

Nous apportons aussi des talents !

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

En guise de complément, tout dépend de ce que l'on entend par acteurs privés. L'attention est focalisée sur les géants technologiques américains, à juste titre. Encore une fois, il ne s'agit absolument pas de les diaboliser mais de comprendre, pragmatiquement, les intérêts convergents que nous pouvons avoir.

De plus, le vocable « géants numériques » ou « acteurs privés » recouvre des réalités différentes. Certains se sont « normalisés », sont devenus vraiment des industries en tant que telles. Ils sont devenus des partenaires et des stakeholders dans cette discussion, comme Google, Meta dans une certaine mesure, Microsoft, Amazon. D'autres, les « nouveaux entrants », évoluent avec une plus grande immaturité, y compris industrielle.

En matière d'IA, il faut toujours comprendre la chaîne de valeur, qui commence en amont par les data centers. À ce titre, la question du cloud renvoie à celle de l'extraterritorialité du droit américain, qui a été totalement hystérisée en France. Je pense notamment au Cloud Act et au Foreign Intelligence Surveillance Act (FISA), les deux textes problématiques d'un point de vue juridique sur la protection de la souveraineté des données, en particulier des données sensibles. Google a par exemple annoncé récemment un cloud complètement déconnecté : en cas de crise géopolitique extrêmement majeure entre la France et les États-Unis, dans un scénario catastrophe, il est possible de tout couper et de recentraliser l'infrastructure, même si elle est d'origine étrangère, américaine en l'occurrence. C'est la raison pour laquelle je recommande de ne pas diaboliser les acteurs et d'éviter les analyses génériques pour se concentrer sur les détails.

Ensuite, que vaut la souveraineté, au-delà de l'incantation politique, si l'on ne dispose pas de la couche de cybersécurité ? Par ailleurs, des entrepreneurs ou des hommes d'affaires français investissent dans ces sujets, même si les montants – quelques centaines de millions d'euros – sont incomparables à ceux des big players. Pourquoi ne travaillent-ils pas avec l'État ? La réponse est très simple : il n'existe pas de fléchage ; la bureaucratie est très pesante. L'intégration des bonnes volontés du secteur privé avec le secteur public n'a pas encore eu lieu en France, faute de culture et d'agilité suffisantes, même si des progrès ont été accomplis.

Dans ce domaine, des pays sont beaucoup plus avancés, qu'il s'agisse de la Chine, des États-Unis ou d'Israël, qui ont dans leur ADN cette culture des allers-retours entre le public et le privé. Dès lors, il est nécessaire de s'interroger sur notre culture entrepreneuriale, notre culture du risque et notre culture technologique au sens large.

Il s'agit d'inverser la question, la proposition de valeur et de se demander avant tout quel est notre projet de société, l'objectif politique que nous cherchons à atteindre et, en fonction de la réponse, de voir en quoi les systèmes technologiques, les logiciels, peuvent nous aider à atteindre cet objectif politique.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Vos propos me font penser à la phrase des théologiens catholiques, pour lesquels « l'argent est un mauvais maître et un bon serviteur ».

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

Je souhaite nuancer les propos de Mme Mhalla concernant la faculté des Google, Apple, Facebook, Amazon et autres Microsoft (GAFAM) de se découpler à un moment donné de l'État américain, en cas de friction ou de crise. Cela me paraît compliqué. Récemment, certaines entreprises comme Microsoft, Apple et Google ont manifesté quelques coups d'éclat, refusant par exemple de se plier aux injonctions et requêtes judiciaires de la part du FBI – Federal Bureau of Investigation. Mais dans le temps long, je n'imagine pas que ces entreprises refusent d'obéir à l'État fédéral américain.

En 2018, un hiatus s'est produit. Certaines entreprises, dont Google, ont annoncé, notamment sous la pression de leurs employés, le retrait d'un grand contrat d'intelligence artificielle qui visait à équiper les drones de l'armée d'outils de reconnaissance d'images automatiques pour cibler diverses cibles. Mais le même mois, Google signait un partenariat avec l'université Tsinghua à Pékin pour le développement de l'intelligence artificielle. Or, de notoriété publique, cette université est connue pour être un acteur majeur de la stratégie de fusion civilo-militaire chinoise.

Le gouvernement américain, sous la houlette de Donald Trump, a réagi extrêmement vivement. Lors d'une audition devant le comité des forces armées du Sénat, le secrétaire à la défense et le chef d'état-major des armées ont quasiment indiqué que Google était en état de trahison, puisqu'il était en train de travailler avec l'armée chinoise. À partir de ce moment, de façon plus globale, l'image des GAFAM s'est extrêmement dégradée dans l'opinion publique américaine, entraînant la classe politique à la suivre. Un réalignement s'est alors opéré et les entreprises américaines ont commencé à se désengager du territoire chinois, certes aussi sous la pression de la Chine.

En conséquence, au-delà des textes de loi, je vois moins s'esquisser la perspective d'une disjonction entre les grandes entreprises technologiques américaines et le gouvernement fédéral, même si je ne doute pas de la volonté des commerciaux de Google, Amazon, Facebook, Apple ou Microsoft de se détacher de cette tutelle encombrante.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Je cède à présent la parole aux collègues qui souhaitent intervenir à titre individuel.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Ce débat sur l'intelligence artificielle devrait être régulé dans notre Assemblée car son omniprésence prochaine pose deux questions essentielles. Tout d'abord, nous devons établir un rapport de force avec les entreprises. L'IA ne doit pas servir à supprimer des emplois. Le Fonds monétaire international (FMI) estime que l'IA impactera 40 % des emplois au niveau mondial et 60 % dans les pays les plus riches. Il faut s'y préparer, en encadrant le plus possible cette technologie.

La deuxième problématique tient à la régulation et au contrôle. Nous savons que le ministère de l'intérieur travaille sur une centaine de projets mobilisant le numérique et l'IA. Une grande majorité concerne des logiciels conversationnels, des chatbots qui permettent de simplifier la communication avec les usagers, mais certaines activités voulues par le gouvernement doivent être strictement contrôlées, voire combattues, par le pouvoir parlementaire. L'exemple le plus parlant concerne l'expérimentation de la vidéosurveillance algorithmique dans le cadre fixé par la loi du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques de 2024.

Quelles garanties pouvez-vous nous donner quant à la protection des emplois mis en concurrence par l'IA ? Quels contrôles le Gouvernement prévoit-il quant à la récolte de données sensibles et leur utilisation via l'IA ? Comment le Parlement pourra-t-il contrôler son application ?

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

S'agissant des enjeux démocratiques, je vous invite à consulter les travaux d'associations comme la Quadrature du net ou du juriste Serge Slama. La problématique se pose pour moi de la manière suivante : en quoi les instruments de projection de puissance que sont les outils technologiques et ces acteurs technologiques américains peuvent-ils devenir un instrument d'hyperpouvoir vis-à-vis de la population ? En quoi notre modèle démocratique se diluerait-il ou convergerait-il vers des modèles de techno-autoritarisme dont les valeurs ne sont pas les nôtres ?

Je n'ai pas d'avis arrêté sur le sujet et tout dépendra de la sensibilité des Français sur ces questions. Or, en la matière, le silence est globalement assourdissant. Cette question fondamentale suppose peut-être aussi une sensibilisation des opinions publiques sur ces sujets. Dans la rhétorique actuelle, le fameux dilemme sécurité versus liberté penche plutôt vers la question sécuritaire, pour de multiples raisons qui n'ont rien à voir avec la question technologique mais dans lesquelles cette dernière s'inscrit.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Je souhaite vous interroger sur l'aspect juridique et réglementaire : le Conseil de l'Europe a mis en place une convention-cadre, que le contrôleur européen de la protection des données a critiquée, considérant qu'elle était trop restrictive et limitée au champ public. N'existe-t-il pas un premier point de blocage, lié aux intérêts économiques qui contraignent forcément la protection des droits de tous ?

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

En matière juridique, la question consiste toujours à savoir quels sont les intérêts en jeu et comment l'on arbitre entre ces intérêts. Les instances européennes en général, et le Conseil de l'Europe en particulier, se sont toujours prononcées en faveur d'un renforcement des droits et des libertés fondamentaux. En l'espèce, il est possible que, pour une fois, le Conseil de l'Europe ait fait un pas en arrière.

Au-delà, il faut observer que la question de l'innovation et du besoin d'innovation a pris une importance majeure dans tous les discours politiques. Il s'agit sans doute d'une erreur parce qu'à un moment donné, quelles que soient les aspirations économiques, quels que soient nos espoirs en termes de croissance et d'emplois, je pense qu'une démocratie digne de ce nom doit pouvoir dresser des lignes rouges à ne pas franchir : ne pas surveiller sa population à tout prétexte, ne pas restreindre des libertés fondamentales.

À un moment donné, si nous avons envie d'être une puissance française ou européenne, d'exporter notre modèle vers le reste du monde et de rayonner, nous devons être conformes à nos valeurs. Or, depuis quelques années, il existe effectivement un risque que nous prenions une direction un peu hasardeuse, notamment en matière technologique.

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

Votre cycle d'audition démarre à point nommé, puisque nous sommes en pleine préparation des Jeux olympiques, laquelle soulève la question de la vidéosurveillance « algorithmique » ou « automatisée » (VSA), du quadrillage de l'espace public. Les auditions concernant la « techno-sécurité » ou la « techno-surveillance » peuvent être très intéressantes. Il peut être à ce titre pertinent de consulter la Commission nationale de l'informatique et des libertés (CNIL), qui a désormais davantage un rôle consultatif.

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

Depuis 2004, la CNIL n'a quasiment plus aucun pouvoir sur l'État. Ses pouvoirs ont été vidés de leur substance, alors qu'elle a quand même été créée en 1978 pour protéger les citoyens contre le fichage par l'État.

Par ailleurs, je souligne qu'un très grand acteur de la « tech » chinoise est un partenaire officiel des Jeux olympiques. Or cette même entreprise participe aujourd'hui à la ségrégation et à la persécution de populations en Chine, notamment les Ouïghours mais également d'autres types de populations civiles. Il est pour moi scandaleux que nous ouvrions notre pays à cette entreprise. Il est scandaleux que nous ayons laissé faire cela. J'espère qu'à l'avenir, nous réfléchirons à deux fois pour déterminer qui nous invitons en France.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

L'intelligence artificielle constitue un défi majeur pour nos sociétés mais les promesses de progrès technologiques et humains qu'elles portent sont absolument gigantesques. Je pense notamment à l'organisation du travail, puisque le développement de ces technologies aura pour conséquence un accroissement considérable du chômage, dû à la disparition de nombreuses activités jusque-là pilotées par l'humain, mais il engendrera dans le même temps une hausse considérable de la productivité.

L'articulation de l'intelligence artificielle et de cette nouvelle organisation du travail repose d'abord et avant tout sur la question de la répartition des gains de productivité. L'intelligence artificielle sera un cauchemar social si ces gains de productivité sont captés entièrement par une toute petite minorité mais un véritable paradis économique s'ils sont a contrario bien répartis et profitent à l'ensemble de la population, en permettant soit une hausse des salaires, soit une réduction du temps de travail. Disposez-vous d'éléments de perspective sur cette question ?

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

Il est effectivement vraisemblable que l'IA provoquera des gains de productivité mais il n'est pas possible d'en connaître l'ampleur à ce jour. Il est certain que les politiques publiques devront accompagner les changements de compétences de la population active, que les Anglo-saxons désignent par les termes d' upskilling et de reskilling. Tous les métiers ne seront pas impactés de la même façon et l'IA offrira également des complémentarités, par exemple dans le secteur de la santé.

Enfin, il est intéressant de se pencher sur les récits développés par Sam Altman et Elon Musk dans ce domaine. D'une certaine manière, ils réinventent Marx dans une forme de post-capitalisme complètement débonnaire : ils parlent de la création de valeur ajoutée grâce à leurs créatures – les intelligences artificielles – associée à une remise au goût du jour du revenu universel de base, mais qui serait distribué par eux, à nous, le peuple, pour la paix sociale, pendant qu'ils iraient à la conquête du monde, de l'univers et du futur. Ces discours peuvent faire sourire mais il convient de faire attention : ces deux hurluberlus de la Silicon Valley disposent malgré tout de milliards et sont capables d'en lever autant. Enfin, une partie de l'élite technologique américaine commence à pencher doucement vers l' alt-right.

Permalien
Charles Thibout, chercheur associé à l'Institut de relations internationales et stratégiques, membre du Centre européen de sociologie et de science politique

La Banque mondiale, en 2019, et le FMI, plus récemment, parlent néanmoins de taux de suppressions d'emplois extrêmement importants : le FMI a ainsi évoqué, en janvier 2024, la suppression nette de 60 % des emplois aux États-Unis et de 70 % en Grande-Bretagne, impactant surtout les professions dites « intellectuelles ». Si des suppressions massives d'emplois interviennent, le chômage de masse deviendra un chômage gigantesque. Je me trompe peut-être, mais je redoute, dans ce cas, une véritable catastrophe sociale, engendrant des troubles sociopolitiques majeurs.

Que ferons-nous de ces gens ? Les gains de productivité offerts par l'IA seront-ils distribués à ces personnes pour qu'elles essayent de vivre décemment, même si elles ne travaillent pas ou peu ? Nous dirigeons-nous plutôt vers une accentuation des dépenses sécuritaires, de police, de justice et d'armée pour essayer de quadriller le paysage social et faire en sorte que les populations ne se révoltent pas ? Il s'agit d'un sujet extrêmement inquiétant, dont la représentation nationale devrait s'emparer.

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

L'expérience des grandes vagues d'automatisation des économies allemande et japonaise dans les années 1970 et 1980 ne s'est absolument pas traduite par un chômage de masse. Un rapport de l'Organisation internationale du travail parle d'une destruction nette d'emplois de 5 %, ces chiffres ayant été repris par le rapport de la commission de l'intelligence artificielle remis au président de la République.

En résumé, je considère que tous les scénarios sont possibles. Aujourd'hui, il s'agit de se demander comment les politiques publiques préparent et accompagnent un risque éventuel. En effet, nous sommes complètement détenteurs de notre avenir. D'une certaine façon, il ne nous est pas imposé.

Une étude récente du McKinsey Global Institute, dont les méthodologies sont traçables, précise qu'au-delà des récits de la Silicon Valley, après les premiers retours d'expérience, les gains de productivité de l'IA ne sont pas si extraordinaires dans les grandes entreprises françaises et européennes, à date.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Votre intervention pose à juste titre un autre problème, celui du rythme. Il est fort possible que les études constatent que les changements n'ont pas été massivement destructeurs jusqu'à présent mais les évolutions technologiques sont telles qu'elles peuvent entraîner une accélération, même si nous en ignorons le jour et l'heure.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Les bouleversements induits par l'intelligence artificielle modifieront évidemment de façon indélébile notre société. Nous assistons à un changement de paradigme, sûrement aussi important que celui qui nous a fait passer de l'agriculture à l'industrie. Ce changement est impulsé autant par les technologies que par l'histoire, et nous ne savons pas quel en sera le résultat concret.

L'intelligence artificielle rend dispensables bien plus de professions et de travailleurs que ne l'a fait l'automatisation des usines il y a un certain nombre d'années, rendant ainsi possible un taux de chômage gigantesque dont les conséquences sont absolument terrifiantes. Pourtant, ses apports semblent loués, au point que deux visions divergentes s'opposent : d'un côté, la possibilité de préserver notre nature humaine et nos activités ; de l'autre, la possibilité de dépasser les capacités humaines, quitte à nous rendre dispensables, voire spectateurs de nouvelles avancées.

Pensez-vous qu'à terme, il sera nécessaire de certifier le mode de production – par exemple d'une image, comme cela commence à être le cas dans les publicités que nous pouvons observer – et son origine ?

Permalien
Asma Mhalla, membre du laboratoire d'anthropologie politique de l'École des hautes études en sciences sociales et du centre national de la recherche scientifique, enseignante à Sciences Po et à l'École polytechnique

L' AI Act prévoit le watermarking, qui signale la production d'images nativement produites par les IA génératives. L'une des rares obligations qu'il contient porte d'ailleurs sur la massification de la désinformation par les deepfakes. Cependant, ce solutionnisme techno-juridique propose des outils faillibles, piratables et détournables. Les fameuses luttes informationnelles sont déjà à l'œuvre ; on parlera demain de « guerres cognitives ».

La dualité de ces technologies, qui sont toujours à la fois civiles et militaires, s'inscrit dans le cadre de la guerre hybride. Face à ces menaces, chacun doit avoir conscience d'être une cible et, en conséquence, être armé cognitivement pour comprendre les enjeux sous-jacents, au-delà des industries et du régalien. Nous faisons face à de nouvelles anthropologies, que nous devons accompagner avec un regard adapté aux réalités de notre époque : le vrai et le faux ; le réel et le virtuel ; le public et le privé.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Cette audition arrive à son terme. Nous avons compris que le marché – la « main invisible » – n'est pas applicable à l'intelligence artificielle. Vos interventions enrichissantes nous ont conduits au pied de trois montagnes.

La première est la montagne démocratique. Pouvons-nous faire survivre la démocratie à l'ensemble de ces évolutions ?

La deuxième est la montagne sociale : la destruction potentielle d'un grand nombre d'emplois et la concentration des bénéfices de la production chez un nombre limité de personnes poseront dans le futur le problème compliqué de la redistribution. Les solutions de demain seront effectivement assez différentes de celles des XIXe et XXe siècles.

La dernière montagne est celle de l'enjeu national. Où en sommes-nous dans cette course ? Quels sont nos atouts, nos limites, nos défaillances et nos insuffisances ?

Telles sont les trois montagnes que nous allons devoir gravir, raison pour laquelle notre commission n'en a pas fini avec ce sujet.

La séance est levée à 11 h 10.

Membres présents ou excusés

Présents. - Mme Véronique Besse, M. Carlos Martens Bilongo, Mme Élisabeth Borne, M. Jean-Louis Bourlanges, M. Bertrand Bouyx, Mme Eléonore Caroit, Mme Mireille Clapot, M. Pierre Cordier, M. Alain David, M. Pierre-Henri Dumont, M. Nicolas Forissier, M. Bruno Fuchs, Mme Stéphanie Galzy, M. Guillaume Garot, Mme Maud Gatel, M. Hadrien Ghomi, Mme Claire Guichard, M. Michel Guiniot, M. David Habib, M. Benjamin Haddad, M. Michel Herbillon, M. Alexis Jolly, Mme Brigitte Klinkert, M. Jean-Paul Lecoq, M. Vincent Ledoux, Mme Yaël Menache, Mme Nathalie Oziol, M. Jimmy Pahun, M. Didier Parakian, M. Jean-François Portarrieu, M. Adrien Quatennens, Mme Laurence Robert-Dehault, M. Vincent Seitlinger, Mme Ersilia Soudais, M. Olivier Véran, M. Patrick Vignal, M. Lionel Vuibert

Excusés. - M. Pieyre-Alexandre Anglade, M. Jérôme Buisson, Mme Julie Delpech, M. Nicolas Dupont-Aignan, Mme Stéphanie Kochert, M. Frédéric Petit, Mme Sabrina Sebaihi, Mme Liliana Tanguy, Mme Laurence Vichnievsky

Assistaient également à la réunion. - Mme Laetitia Saint-Paul, M. Aurélien Saintoul