Permettez-moi tout d'abord de vous féliciter pour la qualité de votre rapport concernant l'intelligence artificielle. Vous avez raison de souligner que l'émergence de l'intelligence artificielle – notamment le phénomène de l'IAG – suscite de nombreuses craintes chez nos concitoyens. Ces peurs sont pour une part alimentées par certains acteurs, qui aiment à faire croire que l'intelligence artificielle pourrait créer de nouvelles armes bactériologiques, prendre le dessus par rapport aux êtres humains ou que sais-je encore. On voit bien que certains accentuent, voire instrumentalisent de telles inquiétudes.
Les progrès rapides de l'IA ont conduit nombre d'organisations multilatérales à se saisir du sujet sans tarder. Manquent pour l'instant une articulation et une cohérence entre ces initiatives – les créer est le travail qui nous attend. On peut citer le partenariat mondial sur l'intelligence artificielle (PMIA) ; le Comité consultatif des Nations unies sur l'IA ; le processus d'Hiroshima du G7, dont la France est une partie prenante très active ; les principes sur l'intelligence artificielle énoncés par le G20 ; les principes éthiques de l'Unesco sur le sujet, très intéressants ; la convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit ; la déclaration de Bletchley Park sur la sécurité de l'IA, signée lors d'un sommet organisé en 2023 au Royaume-Uni.
On peut donc distinguer plusieurs types d'initiatives : la définition de grands principes politiques, généralement applicables aux États ; les textes qui visent principalement le secteur privé, comme l'IA Act que vous avez cité ; les réflexions visant à développer une IA éthique – j'ai évoqué celle de l'Unesco, mais je pourrais également parler de celle de l'Organisation de coopération et de développement économiques (OCDE) ; la volonté de produire une expertise scientifique pour mieux connaître l'intelligence artificielle – c'est notamment le but du PMIA ou du groupe d'experts en IA de l'OCDE (Aigo).
Par ailleurs, plusieurs pays ont déployé des instituts pour la sécurité de l'IA, comme le Safety Institute britannique, dont la création a été annoncée lors du sommet de Bletchley Park et qui, entre autres missions, évaluera les systèmes d'IA avancés. Enfin, je rappelle que la France organisera le prochain sommet international sur l'intelligence artificielle, en début d'année prochaine, et que toutes ces questions seront à l'ordre du jour.