Monsieur le ministre délégué chargé de la transition numérique, l'intelligence artificielle est partout : dans nos téléphones, nos voitures, nos banques, nos hôpitaux. Il en était question, l'autre jour, à Paris, à l'occasion de la visite du créateur de ChatGPT. Elle était mardi soir à l'Assemblée des idées, à laquelle participait Étienne Klein ; elle est dans cet hémicycle, par l'intermédiaire du projet de loi de programmation militaire que nous venons d'examiner, et qui aborde le sujet du soldat augmenté ; elle sera la semaine prochaine au Parlement européen, qui doit se prononcer à son sujet.
Il ne s'agit plus de science-fiction, mais de balistique : l'intelligence artificielle constitue une nuée de projectiles dont nous ignorons la taille et le moment de l'impact, mais dont nous savons que les effets seront fulgurants car le développement de ces technologies va bouleverser de proche en proche nos modèles sociaux et notre rapport au réel. L'essor de l'intelligence artificielle générative présente certes des effets vertueux, mais il comporte également des risques considérables si nous perdons le contrôle. Que nous soyons perplexes, inquiets ou enthousiastes, il devient difficile de faire l'économie du sujet, de se contenter de formuler des recommandations, d'énumérer de bonnes pratiques, d'édicter des principes, tandis que chaque jour, dans la plus grande opacité, les algorithmes affectent notre accès à l'information, à l'emploi ou au crédit.
Il ne s'agit pas d'entraver la marche du progrès, mais de garantir l'ordre démocratique. Si nous tardons à agir, on risque d'observer chez nos concitoyens une défiance qui, à terme, sera susceptible de freiner les développements de l'intelligence artificielle, y compris dans ce qu'ils pourraient avoir de bénéfique. Alors, monsieur le ministre délégué, quelles suites ont été données au rapport remis en 2018 par notre ancien collègue Cédric Villani, qui recommandait d'ouvrir la boîte noire de l'intelligence artificielle en développant l'évaluation citoyenne, les droits collectifs en matière de données, ou encore en anticipant l'apparition d'armes létales autonomes ?