Je ne peux pas vous laisser travestir mes propos. J'ai dit que, si vous demandez à des entreprises comme Google de vous donner leur code, elles le feront, et même assez facilement, car celui-ci aura changé dès le lendemain, et vous n'aurez pas la capacité technique d'aller l'investiguer pendant ces vingt-quatre heures.
Le véritable enjeu, s'agissant de l'intelligence artificielle, est de s'assurer qu'il n'y a pas de biais, que le traitement est loyal. Une manière assez simple de le faire est de donner des jeux de données standardisés, sous le contrôle de la CNIL. C'est ce qui est prévu dans l'article. Ainsi, on sait exactement ce qu'il y a dedans, on connaît les résultats positifs que l'on peut en attendre, ainsi que les résultats négatifs que l'on souhaite éviter.
Les spécialistes que nous avons interrogés nous l'ont bien dit : il faut plusieurs jours, parfois même des mois pour analyser un code. Nous ne nous en sortirons donc qu'en ayant des jeux de données standardisés. L'open data, pour ce genre de systèmes, ne fonctionne pas.
Vous établissez un lien avec la cybersécurité et agitez la crainte de fuites de données. Or il existe déjà de telles images ; elles sont stockées selon des règles fixées notamment par l'Agence nationale de la sécurité des systèmes d'information (ANSSI). Il en ira de même pour les traitements algorithmiques : ils seront placés sur des serveurs sécurisés avec le concours de l'ANSSI. Cessez donc de susciter la crainte. Pourquoi ne parlez-vous pas du fait que la France s'est dotée d'instruments de cybersécurité pour éviter que les données du cloud d'Alibaba ne partent n'importe où ? Nous faisons le nécessaire pour nous protéger : le texte n'autorise pas n'importe quoi.