14 interventions trouvées.
Déposé par mon collègue Alexandre Portier, il propose de fixer l'âge de la majorité numérique à 16 ans et non à 15 ans comme le prévoit la proposition de loi, pour plusieurs raisons : il s'agit d'aligner la disposition avec l'âge fixé au niveau européen, avec les dispositions du RGPD ainsi qu'avec l'âge auquel devient possible l'émancipation du mineur.
L'inquiétude dont témoigne cet amendement est parfaitement légitime, chère collègue, mais les forums de discussion en ligne, qui sont très nombreux, entrent dans le cadre de la définition des réseaux sociaux à l'article 1er du texte, que je vous invite à lire : « une plateforme permettant aux utilisateurs de se connecter et de communiquer entre eux, de partager des contenus et de découvrir d'autres utilisateurs et d'autres contenus […] en particulier au moyen de conversations en ligne ». Il me semble que votre amendem...
À l'issue de nombreux entretiens, il me semble important de souligner la gravité des dangers auxquels sont confrontés les jeunes à cause des réseaux sociaux. Ces dangers, les enfants parfois très jeunes ne les perçoivent pas jusqu'au moment où, après avoir vu des images violentes ou pornographiques ou après avoir été harcelés, ils se retrouvent traumatisés voire en arrivent à des atrocités. Les parents, quant à eux, sont totalement perdus face à l'ampleur que pren...
Le sujet a été longuement débattu en commission. J'ai déposé un amendement dont l'objet est semblable mais je me rallie à la solution proposée par Mme Tanzilli, qui consiste à fixer l'âge plancher à 13 ans, tout en prévoyant des dérogations pour les services en ligne vertueux de portée éducative. Je propose cependant de sous-amender l'amendement n° 110 afin de viser les « services de réseaux sociaux en ligne », plutôt que les « plateformes », en cohérence avec le reste du texte.
J'avais défendu en commission un amendement visant à donner la possibilité de supprimer les comptes des enfants jusqu'à leur majorité civile, soit 18 ans. Après réflexion, nous nous sommes rendu compte que cette mesure pourrait être utilisée comme un moyen de censure de la part de parents en conflit avec leur enfant. Je m'aligne sur la proposition de mon collègue Esquenet-Goxes, qui consiste à limiter cette possibilité aux enfants de moins de 15 ans. Je présenterai un peu plus tard un amendement visant à faciliter la procédure de signalement pour les enfants de 15 à 18 ans tout en permettant au modérateur de supprimer le compte uniquement si un usage malveillant, en lien avec ce compte, a été constaté.
Ces amendements visent à donner un caractère précisément obligatoire à des dispositions qui ne sont pas réellement appliquées par les plateformes. Nous savons que n'importe quelle plateforme, n'importe quel outil numérique peut donner les informations requises à l'utilisateur – qu'il soit mineur ou majeur – pour être en règle au regard de la loi, mais on se rend compte, comme vient de le souligner ma collègue, que le processus à suivre incite à ne pas prendre connaissance des indications ou des contre-indications. Le fait de préciser les dispositions renforcera leur caractère obligatoire afin que personne ne puisse s'en émanciper, en particulier les jeunes publics.
... pas vocation à être un organisme certificateur de solutions techniques ; lui confier cette responsabilité constituerait une nouveauté par rapport à son périmètre d'intervention actuel. Elle peut toutefois déjà, aux termes du décret de 2021 relatif aux modalités de mise en œuvre des mesures visant à protéger les mineurs contre l'accès à des sites diffusant un contenu pornographique, « adopter des lignes directrices concernant la fiabilité des procédés techniques » et ainsi orienter le choix des entreprises vers des solutions respectant des critères établis par le régulateur. Nous proposons d'accroître la cohérence du dispositif en attribuant à l'Arcom le même rôle que celui que lui confère ce décret.
Nous proposons que les entreprises de services de réseaux sociaux en ligne aient l'obligation de proposer un dispositif permettant de signaler facilement et de façon accessible des comptes susceptibles d'être détenus par des mineurs de moins de 15 ans qui n'en ont pas le droit. Actuellement, voici comment le processus est décrit, par exemple, sur WhatsApp : si on souhaite signaler un compte, il faut envoyer un courriel dans lequel on doit fournir une documentation abon...
Il vise à ce que les réseaux sociaux en ligne soient légalement tenus de répondre à un signalement réalisé par un mineur ou concernant un mineur dans un délai de quarante-huit heures ouvrés. Lorsqu'il s'agit du bien-être des enfants, nous n'avons pas le droit de laisser plus de temps aux plateformes pour réagir – quand la santé et la sécurité d'un mineur sont en cause, il faut être très réactif !
Cet amendement, qui est partiellement satisfait dans le cadre de l'application du DSA, s'avère quelque peu risqué : en vertu du règlement, les plateformes en ligne doivent traiter les notifications et prendre leurs décisions en temps opportun et de manière diligente, non arbitraire et objective. Or inscrire dans le texte un délai minimum risquerait d'encourager les plateformes à une forme de surcensure, sans qu'elles aient le temps d'examiner de manière approfondie les signalements dont elles sont saisies. Avis défavorable.
...vés, cette mesure ne peut être efficace que si le montant de l'amende éventuelle est dissuasif. Cet amendement assure également la cohérence de la loi avec la législation de l'Union européenne, en particulier le DSA, qui entrera en vigueur en février 2024. Par le biais d'une série de mesures, le DSA permet de lutter contre les contenus illicites, la haine, la manipulation ou la désinformation en ligne. Un aspect du texte concerne également la protection des mineurs sur internet. En cas de non-respect du règlement, la Commission européenne pourra sanctionner les plateformes par des amendes allant jusqu'à 6 % de leur chiffre d'affaires mondial. En ce sens, et par cohérence avec la législation européenne, il paraît plus pertinent de rehausser la sanction maximale des entreprises de services de ré...
En principe, le droit commun de la minorité s'applique et les actions du mineur relèvent de l'autorité parentale. Malheureusement, le taux de 1 % du chiffre d'affaires ne suffit pas à persuader ces plateformes de respecter le droit. Nous vous proposons donc de nous aligner sur le dispositif du règlement de l'Union européenne et d'augmenter ainsi le plafond des sanctions à 6 % du chiffre d'affaires mondial.
... n° 51 tend à ce que les plateformes de réseaux sociaux soient légalement tenues de procéder à un traitement par une personne humaine lorsqu'un contenu est signalé par un mineur ou concerne un mineur. Lors de l'examen de la proposition de résolution européenne relative à la proposition de législation européenne sur la liberté des médias, notre amendement appelant à interdire qu'un contenu mis en ligne puisse être bloqué sans avoir été vérifié au préalable par une personne a été adopté. Nous proposons que ce principe soit transcrit dans notre droit. Nous nous assurerions ainsi qu'un signalement venant d'un mineur ou concernant un mineur soit traité non pas par un algorithme, mais bien par une personne.
...Beaucoup de celles et ceux qui ont élaboré ces programmes dans un passé pas si lointain sont dépassés par la technologie qu'ils ont eux-mêmes conçue et codée. Outre le problème de la pédopornographie se pose celui du harcèlement. Or tous les linguistes s'accordent à dire que l'évolution du langage utilisé dans les cas de harcèlement, de ciblage, de violence ou d'autres manifestations de haine en ligne, contre laquelle cette proposition de loi vise à lutter, échappe à l'intelligence artificielle, à plus forte raison lorsque le codage est réalisé par des personnes qui ne partagent pas notre langue et nos codes culturels, mais parlent une langue étrangère et ont d'autres codes culturels, en particulier anglo-saxons. Nous le savons tous ici, les dispositifs d'intelligence artificielle sont souven...