L' IA Act européen parle peu de géopolitique. Depuis les vingt dernières années, nous observons que les mêmes pays avancés se dotent des nouvelles technologies qui apparaissent. L'intelligence artificielle, domaine dans lequel les États-Unis et la Chine sont leaders, n'y échappe pas. En effet, pour maîtriser cette technologie, il est nécessaire de posséder une forte capacité en calcul de données, des ingénieurs et une forte capacité d'innovation. Dans ce domaine, la Russie est absente et, comme d'habitude, l'Europe essaye de suivre, avec quelques succès pour l'instant trop parcellaires.
Ensuite, plusieurs dangers sont liés à l'intelligence artificielle. Vous avez pointé la diffusion des connaissances et des capacités d'États, voire de groupes non-étatiques, à utiliser les modèles de « fondation » – les large language models – pour acquérir des connaissances en armement. Ce danger est bien réel malgré les limites et les brides existant sur ces systèmes. Il faut également mentionner le danger d'accident, d'autonomisation de certaines IA, c'est-à-dire soit des armes autonomes, soit des systèmes d'IA insuffisamment maîtrisés par leurs créateurs ou intentionnellement créés à cet effet, pour produire le plus de dégâts possible.
L'IA est, de fait, un facteur de puissance évident et particulièrement inquiétant dans le domaine nucléaire. Or les accords qui sont menés en la matière demeurent très timides ; il s'agit essentiellement d'accords d'autolimitation de la part des grandes entreprises. Un premier sommet sur l'IA s'est déroulé à Londres, en novembre dernier ; la France en organisera probablement un second, en février prochain. Des progrès doivent être accomplis, tant l'IA menace potentiellement la paix et la sécurité dans le monde.