Meta veut confier la modération à l’IA : à quoi s’attendre sur Facebook et Instagram ?
Meta accélère sa transition vers une modération automatisée. L’entreprise prévoit de réduire fortement le rôle des modérateurs humains au profit de systèmes basés sur l'intelligence artificielle.
La modération des contenus entre dans une nouvelle phase. Après avoir déjà revu en profondeur ses politiques ces derniers mois, Meta annonce vouloir transformer davantage son approche en s’appuyant massivement sur l’intelligence artificielle. Meta veut ainsi détecter plus rapidement les contenus problématiques et les supprimer avant qu'ils ne se propagent sur ses plateformes. Mais derrière ce virage technologique, c’est aussi l’organisation même de la modération qui pourrait être profondément bouleversée.
La modération confiée à l’IA pour gagner en rapidité
Meta prévoit de réduire progressivement le nombre de modérateurs humains au profit de systèmes automatisés. Cette transition doit s’opérer au cours des prochaines années, sans calendrier précis à ce stade.
Aujourd’hui, l’entreprise s’appuie encore sur des milliers de sous-traitants à travers le monde pour examiner les contenus signalés par les utilisateurs ou détectés par ses outils internes. Ce modèle pourrait évoluer en profondeur, alors que Meta envisagerait une réduction significative de ses effectifs. Plusieurs projections évoquent jusqu’à 20 % des équipes concernées, soit environ 15 800 postes potentiellement menacés, même si le groupe n’a pas détaillé officiellement l’ampleur des suppressions.
Meta met en avant plusieurs arguments pour justifier ce choix. Selon l’entreprise, ses systèmes basés sur des modèles de langage ont déjà montré des résultats jugés prometteurs, notamment en matière de rapidité et de couverture linguistique.
L’un des points clés concerne justement la gestion des langues. Les outils actuels couvrent environ 80 langues, tandis que les nouveaux systèmes seraient capables d’en traiter suffisamment pour concerner 98 % des internautes.
L’humain recentré sur les décisions sensibles
Malgré ce basculement, Meta insiste sur le maintien d’une intervention humaine dans certains cas. Les modérateurs devraient continuer à intervenir sur les décisions les plus complexes et les plus sensibles, comme les recours liés à la désactivation de comptes ou les signalements impliquant les autorités. Leur rôle évoluerait également vers des fonctions de supervision, d’entraînement et d’évaluation des systèmes d’IA. Autrement dit, les humains ne disparaissent pas, mais changent de position dans la chaîne de décision.
Ce virage soulève toutefois plusieurs questions. De nombreux utilisateurs estiment déjà que les systèmes automatisés peuvent commettre des erreurs, notamment en matière de modération excessive ou de traitement des recours. Meta affirme de son côté que ses nouveaux outils permettent de réduire les erreurs de sur-modération tout en améliorant la détection des contenus les plus problématiques.
À plus court terme, l’entreprise déploie également un assistant basé sur l’IA dans Facebook et Instagram. Ce chatbot doit aider les utilisateurs à gérer certaines démarches, comme le signalement de contenus, la récupération de comptes ou la gestion des paramètres. Dans un premier temps, cette fonctionnalité est testée aux États-Unis et au Canada.
Avec cette évolution, Meta poursuit sa stratégie d’automatisation à grande échelle, dans un domaine où les enjeux techniques, économiques et sociétaux restent étroitement liés.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.