Ce site présente les travaux des députés de la précédente législature.
NosDéputés.fr reviendra d'ici quelques mois avec une nouvelle version pour les députés élus en 2024.

Sécuriser et réguler l'espace numérique — Texte n° 1674

Amendement N° 255 (Irrecevable)

Publié le 29 septembre 2023 par : Mme Belluco.

Photo issue du site de l'Assemblée nationale ou de Wikipedia 

Texte de loi N° 1674

Après l'article 6

Dans l’attente d’une évaluation socio-économique, sociétale et environnementale, la diffusion, à titre gratuit ou onéreux d’applications, logiciels ou autres interfaces utilisant des traitements algorithmiques générant des sons, textes, images ou vidéos, est interdite.

Exposé sommaire :

L’objet de cet amendement d’appel est de porter le débat sur la diffusion des IA génératives, étant données les graves risques d’ores et déjà avérés, possibles, et encore inconnus qu’elle comporte.
Cette technologie a été mise à disposition du grand public sans aucune évaluation préalable, sans aucune autorisation d’exploitation, ni au niveau européen, ni au niveau national. Il convient de revenir sur cette fuite en avant.
Pour ne citer que quelques risques :
Premièrement, il y a un risque en termes de protection des citoyens dans l’environnement numérique. Il est fait peu de cas du contenu des données accessibles utilisées pour les modèles de langage. Ce faisant, peuvent parfaitement s’y intégrer des propos racistes, homophobes, climato-sceptiques – à titre d’exemple. Et si ceux-ci sont nombreux, voire majoritaires dans les données d’entraînement, les textes produits comporteront eux-aussi ces biais – ils renforceront ainsi la haine en ligne. Ces dangers ont été mesurés depuis : l’entreprise Newsguard a, par exemple, observé que dans 80 % de cas de fausses informations qu’elle a soumises à ChatGPT, celui-ci a produit des mensonges et des discours violents très convaincants.
Deuxièmement, ces IA génératives peuvent elles-mêmes être sources de violences. Le prompt, qui les déclenche au départ, par exemple dans le cas de Chat-GPT 4, ne permet pas de prévenir qu’au fur et à mesure des demandes de l’utilisateur, l’IA fera preuve de violence vis-à-vis de cet utilisateur. Les exemples sont nombreux où l’IA générative en vient à insulter ou menacer l’utilisateur, notamment.
Troisièmement, il y a un fort coût environnemental. Une étude de Strubell évoquait une émission de 284 tonnes de carbone pour l’entraînement d’un seul modèle – l’équivalent du carbone émis par une trentaine de français en un an. Puisque les données se multiplient et s’agrègent, il est logique de vouloir mettre à jour le modèle ; ce qui conduit chaque fois à une pollution de ce type.
Face à ces critiques, les développeurs d’IA génératives n’ont pas apporté des réponses suffisantes. Après qu’OpenAI ait rendu son modèle de langage plus « responsable », un outil comme « DAN » pour « Do Anything Now » a permis de le contourner.
Ces préconisations sont partagées par des instances officielles. A titre d’exemple, l’UNESCO recommande prévenir l’utilisation de ces IA génératives par les enfants de moins de 13 ans.
Un débat doit avoir lieu quant à l’utilisation de cette technologie. Tel est l’objet de cet amendement.

Aucun commentaire n'a encore été formulé sur cet amendement.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.