Je commencerai par la question de la désinformation et de la responsabilisation des plateformes. Les modèles des plateformes peuvent favoriser la diffusion à une échelle massive, virale, de contenus illicites, haineux et de désinformation. Si l'on prend l'exemple de Facebook, seulement 3 % à 5 % des discours de haine et 1 % des contenus à caractère violent ont fait l'objet de mesures de modération, selon la lanceuse d'alerte Frances Haugen et une étude interne, et les moyens de modération sont concentrés autour des contenus publiés aux États-Unis d'Amérique – 13 % des efforts de modération concernent des contenus publiés en dehors, alors que plus de 90 % des utilisateurs ne sont pas américains. Or les plateformes ne rendent pas de comptes à une autorité publique pour ce qui est des contenus mis en avant ou retirés, ce qui crée un risque évident d'atteinte à la liberté d'expression, aux droits fondamentaux et au fonctionnement de nos démocraties.
Le DSA comporte plusieurs mesures qui doivent nous permettre de placer les plateformes face à leurs responsabilités en matière de diffusion de contenus et de produits illicites ou dangereux. Le texte détermine des obligations renforcées pour les grandes plateformes, au bénéfice de tous les utilisateurs, avec des sanctions dont le montant peut atteindre 6 % du chiffre d'affaires mondial. Les plateformes devront rendre compte au régulateur des techniques et des moyens de modération qu'elles mettront en œuvre, ainsi que de leurs résultats. Elles devront également dimensionner leurs moyens de modération en fonction des risques de diffusion et les plus grandes d'entre elles devront les soumettre à des audits indépendants. Elles devront activement protéger les mineurs sur leurs interfaces, en utilisant notamment des systèmes de vérification de l'âge ou de contrôle parental. Elles devront enfin se soumettre à des obligations de transparence concernant les recommandations qu'elles font à leurs utilisateurs et les publicités qu'elles affichent.
À travers le projet de loi Sren, nous prenons les devants en matière d'ingérence étrangère et de désinformation – plusieurs dispositions y portent spécifiquement sur ces sujets. J'espère qu'une fois le texte adopté, nous serons suffisamment armés face à ce fléau.
L'éducation doit être une des cibles prioritaires des politiques publiques afin de préparer au mieux notre jeunesse à ces nouvelles technologies, avec un double souci en tête : éviter l'illectronisme parmi nos jeunes, qui vivront dans une société toujours plus numérisée, tout en gardant en tête la nécessité constante de les protéger. Donnons-leur les outils, tout en leur apprenant les bons comportements pour mieux appréhender les contenus numériques.
La mission flash de votre commission sur l'éducation critique aux médias a présenté ses conclusions en février 2023. Ses rapporteurs, Violette Spillebout et Philippe Ballard, ont conclu que si l'éducation aux médias (EMI) est aujourd'hui reconnue comme une priorité absolue et une composante de la formation à la citoyenneté, les dispositifs existants souffrent d'un trop grand éclatement, qui nuit à leur lisibilité. Le ministère de l'éducation nationale et de la jeunesse a annoncé que, d'ici 2027, tous les collégiens devront bénéficier d'une EMI renforcée, et ce chaque année. L'éducation nationale mène déjà des actions de sensibilisation, par différents canaux. Une circulaire du 24 janvier 2022 prévoit la généralisation de l'EMI, laquelle est également intégrée à la formation des enseignants. Les associations, telles que Génération numérique, proposent des choses très intéressantes. Je tiens par ailleurs à saluer l'action du Centre pour l'éducation aux médias et à l'information, qui a la charge de l'EMI dans l'ensemble du système éducatif français. C'est lui qui organise, du 18 au 23 mars prochains, la semaine de la presse et des médias dans l'école, pour apprendre aux élèves à décrypter cet univers parfois confus. Sur ce sujet, nous serons particulièrement attentifs aux conclusions des EGI, qui alimenteront nos travaux. Je tiens, enfin, à saluer les nombreuses associations qui se créent, souvent à l'initiative de journalistes, pour apprendre aux plus jeunes à décrypter l'information.
J'en viens à la question de l'IA générative et de la protection des droits d'auteur et des données, illustrée par la plainte du New York Times contre ChatGPT. L'intelligence artificielle présente plusieurs défis majeurs concernant, d'une part, notre puissance de calcul, afin de garantir que les modèles français et européens fonctionnent le mieux possible, et, d'autre part, les données utilisées. Aujourd'hui, beaucoup de modèles tournent à partir de données américaines : il y a donc un enjeu culturel majeur au niveau français et européen à ce que nos modèles fonctionnent sur la base de données françaises et européennes.
La question de la valorisation de ces données sera centrale : comment organiser cette espèce de place de marché de la donnée ? Il faudra y réfléchir à l'échelle française, mais aussi européenne. Les conclusions du rapport de la commission de l'intelligence artificielle, remis ce matin à l'Élysée, vont dans ce sens. Nous devons parvenir à organiser ce système entre les ayants droit, les auteurs et les utilisateurs de ces bases de données pour déboucher sur une juste rémunération. L'échelon européen sera le plus adapté pour organiser ce travail qui nous attend. Je ne peux pas encore vous dire précisément quelles seront les modalités de l'accord, mais une chose est certaine : la question des données est centrale pour notre modèle culturel. Il va falloir y réfléchir, et les conclusions du rapport remis ce matin seront sans doute une inspiration.
J'ai eu l'occasion de m'exprimer de manière très claire dans la presse au sujet de Mistral AI. Je viens d'entendre les mots « instrumentalisée » ou « posture mensongère », mais ils ne sont pas du tout adaptés. Lors des négociations du trilogue autour de l' AI Act, la France s'est dite favorable au développement de l'écosystème au niveau européen selon une logique open : c'est important pour que notre modèle puisse se développer et bénéficier d'une communauté et de données ouvertes. Je ne me ferai pas l'avocate d'une société en particulier, mais Mistral AI avait dès sa création annoncé avoir un modèle de développement hybride, à la fois open source et commercial. L'annonce récente concerne le volet commercial du développement de la société. D'une manière générale, lorsqu'une pépite française se place parmi les trois meilleurs mondiaux, nous devrions nous réjouir plutôt que lui taper dessus. Quoi qu'il en soit, soyez assurés que nous continuerons à défendre au niveau européen un modèle d' open AI.
Nous devons traiter les fausses informations dans leur globalité, et pas simplement quand elles relèvent du climatoscepticisme. Elles sont un fléau, aussi bien du point de vue politique qu'écologique ou de l'atteinte aux personnes. Le DSA devrait nous donner des outils de lutte. Nous devons continuer à être très vigilants en matière de modération des contenus. Par ailleurs, il faut travailler aux conséquences écologiques de l'usage du numérique. L'IA demande beaucoup d'énergie pour faire tourner ses supercalculateurs. Des technologies en cours de déploiement pourraient améliorer grandement les choses. Le développement de l'énergie nucléaire en France nous permettra aussi de satisfaire les besoins que nous aurons pour développer tous ces modèles.
Plusieurs textes nous permettent d'aborder les problèmes liés à la concentration des médias, notamment le DMA, car il nous donne un droit de regard sur les phénomènes de concentration entre plateformes : nous aurons notre mot à dire, à l'échelle européenne, sur les fusions de plateformes. Le MFA, lui, quand il sera pleinement entré en vigueur, renforcera notre regard sur les concentrations de médias.
Je considère que l'anonymat en ligne n'existe pas. Aujourd'hui, on est en mesure de retrouver les auteurs des faits : plusieurs affaires l'ont montré. Même si je sais que, selon un sondage récent, de nombreux Français seraient favorables à une forme de traçage numérique, j'ai donc une certaine prudence à l'égard de cette notion d'anonymat en ligne. Pour autant, nous sommes pleinement mobilisés afin de responsabiliser les plateformes, qui doivent nous assister dans l'identification des auteurs des faits.
En outre, il est possible, à partir de n'importe quel terminal, de se localiser en Allemagne, en Belgique ou n'importe où dans le monde : la problématique de l'anonymat en ligne ne peut donc pas être simplement traitée au niveau national. Je ne botte pas en touche, mais nous devons réfléchir à l'échelle européenne si nous souhaitons être pleinement efficaces dans ce domaine.