La plateforme TikTok est utilisée pour regarder des vidéos courtes de format vertical. C'est un média communautaire où des utilisateurs postent des contenus. Il s'agit donc plutôt d'une plateforme de création et de diffusion, qui reflète les passions individuelles et collectives. Elle s'éloigne un peu du réseau social au sens strict : sur notre plateforme, les fonctionnalités qui permettent d'interagir sont assez limitées puisque le but consiste avant tout à créer des vidéos et à les partager de manière ouverte. Nous n'avons pas de messagerie pour les moins de 16 ans. Pour les moins de 18 ans, la messagerie est désactivée par défaut. Pour les plus de 18 ans, elle existe mais elle est très réduite : ni cryptée, ni éphémère, et sans possibilité de constituer des groupes de discussion.
Nous nous définissons comme une plateforme créative sur laquelle on regarde des vidéos, plutôt que comme un réseau social. Nous sommes néanmoins vigilants à tous les risques qui peuvent exister en lien avec des vidéos aux finalités dommageables. C'est ainsi que les vidéos violentes, visant à commettre des activités violentes ou à nuire à des personnes, des groupes ou des biens sont évidemment interdites par nos conditions générales d'utilisation et nos règles communautaires, qui sont détaillées. Cela concerne tout type de violence : vol, destruction de biens, fourniture d'instruction sur la manière de commettre des activités criminelles qui pourraient nuire aux personnes, aux biens et aux animaux, menaces à la vie humaine.
L'interdiction fixée dans nos règles communautaires est appliquée au niveau international par 40 0000 personnes – les forces « trust and safety » – chargées de vérifier son respect. Ces équipes accomplissent un travail de modération humaine et d'organisation des algorithmes pour détecter de manière proactive toutes les formes de violence, physiques ou verbales, de gestes ou de langages codés. En France, 600 modérateurs de langue française interviennent quotidiennement sur la plateforme.
Nous avons observé, notamment au printemps 2023, une augmentation de vidéos qui ont été retirées parce qu'elles comportaient des contenus violents graphiques ou de désinformation dangereuse. Entre le 16 mars et le 3 mai, nous avons retiré 79 210 vidéos au total. Parmi elles, 37 776 vidéos violaient nos politiques par leur contenu violent notamment visuel ; 7 300 vidéos exprimaient un extrémisme violent et 8 700 vidéos répandaient une désinformation dangereuse. Il faut souligner que 93 % de ces vidéos ont été retirées de manière proactive. Ce chiffre s'élève à 99 % pour la désinformation dangereuse.
Nous pratiquons une politique de réponse graduée. Nous commençons par supprimer les contenus. Si le contenu est très dommageable, le compte est supprimé. Dans d'autres cas de figure, nous adressons plusieurs avertissements avant de supprimer le compte. Au printemps 2023, nous avons supprimé 945 comptes.
Nous sommes en contact étroit avec Pharos, qui peut nous signaler des contenus. Nous discutons avec les autorités administratives et judiciaires pour des réquisitions plus formelles. Dans ce cas, nous veillons à fournir une réponse rapide, particulièrement dans des périodes troublées. Cela peut concerner les évènements du printemps, mais également les émeutes qui ont eu lieu entre le 27 juin et le 3 juillet pour lesquelles les demandes ont été traitées dans l'heure.
Nous publions toutes ces données chaque trimestre dans un rapport de transparence qui recense l'ensemble des infractions relevées. Nous comptabilisons également toutes les sollicitations reçues des pouvoirs publics. Nous sommes en contact avec l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication et avec la gendarmerie.