Je souhaite appeler votre attention sur deux sujets qui me préoccupent. Comme vous le savez, les innovations technologiques liées à l'intelligence artificielle permettent aujourd'hui d'avoir des soldats dits augmentés, dont les capacités sont renforcées. Ce n'est pas nouveau : au Moyen-Âge, on avait inventé l'armure ; aujourd'hui, on peut non seulement inventer de nouvelles protections, mais aussi renforcer les capacités cognitives des soldats, grâce à une vision augmentée et, pourquoi pas, des exosquelettes – pour imaginer tout cela, pensons à Robocop.
À l'aune des progrès de l'intelligence artificielle, ce sujet est préoccupant. En effet, que se passerait-il si le déclenchement de l'armement n'était plus laissé à la libre appréciation du soldat – si un tir pouvait être déclenché par l'intelligence artificielle sans qu'il l'ait décidé, par exemple ? Ce sujet éthique me préoccupe particulièrement, et il me semblait intéressant d'en faire mention dans le rapport annexé.
Je fais le lien avec une autre problématique importante et préoccupante, dont il n'est fait aucune mention dans le rapport annexé : les systèmes d'armes létales autonomes. Imaginez un robot tueur commandé par l'intelligence artificielle. Il y a quelques années, j'avais adressé une question écrite à ce sujet à la ministre Parly, qui m'avait répondu que l'intelligence artificielle n'en était pas à ce stade de mûrissement. Mais vu la vitesse à laquelle elle se développe, je pense qu'il faut que nous y réfléchissions.