Cet outil de Google permet d’évaluer, par une note de 1 à 100, le degré de « toxicité » d’un commentaire en vue de sa modération. Le dispositif s’appuie sur le Machine Learning, soit une analyse comparative du commentaire problématique avec d’autres similaires, déjà catégorisés comme « toxiques » par des modérateurs humains. Grâce à ce système, 20% du contenu a déjà été approuvé automatiquement. Son community manager, Bassey Etim souligne que, si le dispositif est efficace, il ne remplace pas totalement la surveillance humaine. (En savoir plus).

,

INSCRIVEZ-VOUS à NOTRE NEWSLETTER

Vous affirmé avoir pris connaissance de notre Politique de Confidentialité. Vous pouvez vous désinscrire à tout moment à l'aide des liens de désinscription ou en nous contactant à l'adresse contact@seriously.ong.