Meta déploie de nouveaux systèmes d'application de contenu IA tout en réduisant sa dépendance aux fournisseurs tiers
Meta a annoncé jeudi qu'elle commençait à déployer des systèmes d'IA plus avancés pour gérer l'application du contenu, tout en prévoyant de réduire sa dépendance aux fournisseurs tiers. Les tâches liées à l'application du contenu incluent la détection et la suppression de contenus concernant le terrorisme, l'exploitation des enfants, les drogues, la fraude et les escroqueries.
L'entreprise affirme qu'elle déploiera ces systèmes d'IA plus avancés dans ses applications dès qu'ils surpasseront de manière constante ses méthodes actuelles d'application du contenu. Dans le même temps, elle réduira sa dépendance aux fournisseurs tiers pour cette tâche.
« Bien que nous aurons toujours des personnes qui examinent le contenu, ces systèmes seront capables de prendre en charge des tâches mieux adaptées à la technologie, comme les examens répétitifs de contenus graphiques ou les domaines où des acteurs malveillants changent constamment leurs tactiques, comme dans le cas des ventes de drogues illicites ou des escroqueries », a expliqué Meta dans un article de blog.
Meta estime que ces systèmes d'IA peuvent détecter plus de violations avec une plus grande précision, mieux prévenir les escroqueries, répondre plus rapidement aux événements du monde réel et réduire le sur-contrôle.
L'entreprise indique que les premiers tests des systèmes d'IA ont été prometteurs, car ils peuvent détecter deux fois plus de contenus de sollicitation sexuelle adulte violants que ses équipes de révision, tout en réduisant le taux d'erreur de plus de 60 %. Elle précise également que les systèmes peuvent identifier et prévenir davantage de comptes d'usurpation d'identité impliquant des célébrités et d'autres personnalités publiques, ainsi qu'aider à stopper les prises de contrôle de comptes en détectant des signaux tels que des connexions depuis de nouveaux emplacements, des changements de mot de passe ou des modifications apportées à un profil.
De plus, Meta affirme que les systèmes peuvent identifier et atténuer environ 5 000 tentatives d'escroquerie par jour, où des escrocs tentent de tromper les gens pour qu'ils divulguent leurs identifiants de connexion.
« Des experts concevront, formeront, superviseront et évalueront nos systèmes d'IA, mesurant la performance et prenant les décisions les plus complexes et à fort impact », a écrit Meta dans l'article de blog. « Par exemple, les personnes continueront à jouer un rôle clé dans la prise des décisions les plus critiques, telles que les appels de désactivation de compte ou les signalements aux forces de l'ordre. »
Cette initiative intervient alors que Meta a assoupli ses règles de modération du contenu au cours de l'année écoulée, notamment avec le retour au pouvoir du président Donald Trump. L'année dernière, l'entreprise a mis fin à son programme de vérification des faits par des tiers au profit d'un modèle de Community Notes similaire à celui de X. Elle a également levé les restrictions concernant les « sujets faisant partie du discours mainstream » et a déclaré que les utilisateurs seraient encouragés à adopter une approche « personnalisée » du contenu politique.
Cela coïncide également avec le fait que Meta et d'autres grandes entreprises technologiques font actuellement face à plusieurs poursuites visant à tenir les géants des réseaux sociaux responsables des préjudices causés aux enfants et aux jeunes utilisateurs.
Meta a également annoncé jeudi le lancement d'un assistant de support Meta IA qui donnera aux utilisateurs accès à un support disponible 24/7. L'assistant est déployé à l'échelle mondiale sur les applications Facebook et Instagram pour iOS et Android, ainsi que dans le Centre d'aide sur Facebook et Instagram sur ordinateur.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.