Nos rapports de transparence sont publiés chaque trimestre. Le prochain, qui couvrira la période du 1er avril au 30 juin 2023, sera publié fin août. Comme nous vous l'avons indiqué précédemment, nous disposons d'une équipe de 15 000 modérateurs.
En matière de chaîne de décision, compte tenu du volume à traiter, notre travail allie l'intelligence artificielle et les modérateurs humains. Nous obtenons de très bons résultats sur la détection des contenus violents généralement graphiques, sur lesquels notre machine a pu s'entraîner. Cependant, il faut également prendre en considération le contexte et la culture de chaque pays. C'est la raison pour laquelle nous pouvons effectuer de manière additionnelle une vérification manuelle à travers l'un de nos modérateurs.
Nous prononçons des réponses graduées au regard de la violation constatée. Si l'utilisateur n'est pas d'accord avec la décision de retrait de contenu prise par Meta, il peut faire un recours. Celui-ci est étudié par un modérateur différent. Si l'utilisateur n'est toujours pas d'accord, un second recours est possible. Si la décision ne satisfait toujours pas l'utilisateur, un comité de surveillance composé d'une vingtaine d'experts indépendants au niveau mondial pourra examiner la décision et formuler éventuellement des recommandations pour faire évoluer la définition du contenu violent. Les différentes définitions sont publiques. Elles figurent dans le rapport de transparence.