Publié le 14 septembre 2023 par : Mme Spillebout, M. Zulesi, M. Larsonneur, M. Ramos, M. Pradal, M. Olive, M. Fait, Mme Piron, M. Falorni, M. Ghomi, M. Sorre, Mme Calvez, M. Ardouin, M. Haury, M. Thiébaut, M. Patrier-Leitus, M. Parakian, Mme Moutchou, M. Abad, M. Reda, M. Pellerin, Mme Lanlo, M. Bataillon, Mme Babault.
Après l’alinéa 59, il est inséré plusieurs alinéas :
« 6° - Après l’article 6-1-3, il est inséré un article 6-1-3 bis ainsi rédigé
« Les fournisseurs d’un système technologique capables de créer ou modifier tout type de contenu numérique à partir d’une instruction d’un utilisateur humain sont tenus d’apposer un étiquetage, de manière systématique, sur les contenus générés entièrement à partir de ce système. A cet effet, ils mettent en œuvre des solutions techniques open sources, interopérables et cryptographiquement sécurisées afin d’assurer la transparence et la traçabilité sur les modifications apportées aux contenus auxquels des personnes physiques sont exposées.
« Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne au sens des dispositions du règlement (UE) 2022/2065 (loi sur les services numériques) doivent intégrer des solutions d’étiquetage pour les contenus issus d’un système technologique capables de créer ou modifier tout type de contenu numérique à partir d’une instruction d’un utilisateur humain, pour accompagner les utilisateurs à décrypter les contenus dans le cadre de leurs efforts pour atténuer le risque systémique, conformément audit règlement (UE) 2022/2065.
« Les modalités d’identification des contenus tiennent compte de l'état de l’art en matière technique et des normes en vigueur. Tout manquement à cette obligation d’information est puni d’un an d’emprisonnement et de 250 000 euros d’amende. »
Avec l'essor et le développement de l'intelligence artificielle, l'importance de la question de l'authenticité des contenus et de la désinformation prend une nouvelle dimension. Aujourd’hui de nombreux artistes, créateurs, journalistes, responsables publics et citoyens mesurent déjà l’impact de l'intelligence artificielle sur leur manière de travailler.
Par ailleurs, les citoyens et les usagers des réseaux sociaux se questionnent de plus en plus sur la véracité des contenus, redoutant à tout instant d’être victime de la désinformation.
Ces préoccupations sont justifiées et il est important de protéger les créateurs ainsi que les usagers en créant un cadre législatif fort afin de préserver nos démocraties.
La lutte contre la désinformation et la protection de l’authenticité des contenus doivent demeurer des piliers de tout encadrement des activités numériques.
Dans une époque où des médias synthétiques seront de plus en plus répandus, un simple étiquetage « IA » ne fournira pas les informations nécessaires pour permettre aux consommateurs d’évaluer avec confiance la nature et la pertinence de ce type de contenus. C’est pourquoi il est essentiel que le PJL visant à « sécuriser et réguler l’espace numérique » se réfère à l’état de l’art de l‘étiquetage de l’IA.
Un étiquetage utile et efficace doit rendre transparente la chaine des opérations de manière objective afin de déterminer qui, quand, où et comment une image a été prise, un contenu a été généré, modifié puis publié. Pour être sûres, ces informations doivent être cryptographiquement associées aux contenus générés ou modifies par IA, de manière à ce que toute tentative de manipulation soit identifiée de façon évidente.
En ce qui concerne l’adoption de l’étiquetage, des normes de transparence open sources et interopérables sont essentielles pour promouvoir sa mise en œuvre. Tel est l’objet du présent amendement.
Aucun commentaire n'a encore été formulé sur cet amendement.