Sur Snapchat, tout repose sur la conception de la plateforme. Nous luttons ainsi contre la viralité afin d'éviter qu'un contenu violent soit partagé à toute vitesse. Le Digital Services Act obligera chaque plateforme à prendre ses responsabilités pour répondre dans les meilleurs délais aux signalements des autorités et des utilisateurs.
Il faut renforcer la collaboration entre le privé et le public. Nous sommes membres du groupe de contact permanent sur la lutte contre le terrorisme et les extrêmes violences. Nous effectuons des remontées de terrain afin d'être réactifs et de transmettre les différents messages à nos équipes de modération.
S'agissant de la théâtralisation et du mimétisme, nous devons faire preuve de pédagogie et rappeler que l'anonymat n'existe pas sur internet. Si une plateforme reçoit une réquisition de la part des autorités judiciaires, elle doit y répondre rapidement. Chez Snapchat, les règles d'utilisation reflètent les lois locales. Les conditions générales d'utilisation sont divisées en deux catégories : celles qui sont applicables pour les États-Unis et celles qui relèvent des règles de l'Union européenne.
Nous avons plusieurs milliers de modérateurs dont je vous communiquerai le nombre par écrit. Je rappelle également que, si l'interdiction d'une surveillance généralisée s'applique, nous sommes proactifs lorsque nous sommes confrontés à des cas d'extrême violence comme le terrorisme ou la pédocriminalité. Dans ce dernier cas, nous envoyons les informations au National Center for Missing and Exploited Children (NCMEC) aux États-Unis. En matière de terrorisme, les données sont transmises directement à Interpol qui transfère ensuite l'information aux juridictions des pays concernés. En matière de modération, l'intervention humaine est nécessaire : nous ne nous fondons pas uniquement sur la modération algorithmique. À titre d'exemple, la désinformation est essentiellement détectée par des opérateurs humains.