Le nouveau modèle de Meta : Muse Spark
Meta a annoncé Muse Spark aujourd'hui, leur première sortie de modèle depuis Llama 4 il y a presque un an. Ce modèle est hébergé et non pas à poids ouverts, et l'API est actuellement "une prévisualisation privée de l'API pour des utilisateurs sélectionnés", mais vous pouvez l'essayer dès aujourd'hui sur meta.ai (connexion Facebook ou Instagram requise).
Les benchmarks auto-rapportés par Meta montrent qu'il est compétitif avec Opus 4.6, Gemini 3.1 Pro, et GPT 5.4 sur des benchmarks sélectionnés, bien qu'il soit notablement en retard sur Terminal-Bench 2.0. Meta indique qu'ils "continuent d'investir dans des domaines avec des lacunes de performance actuelles, tels que les systèmes agentiques à long terme et les flux de travail de codage".
Le modèle est exposé sous deux modes différents sur meta.ai : "Instant" et "Thinking". Meta promet un mode "Contemplation" à l'avenir qui, selon eux, offrira un temps de raisonnement beaucoup plus long et devrait se comporter davantage comme Gemini Deep Think ou GPT-5.4 Pro.
Outils intéressants sur Meta AI
Il est clair que l'interface de chat de Meta dispose de plusieurs outils intégrés. Voici quelques outils notables :
-
Recherche et navigation :
browser.searchpermet de faire une recherche web via un moteur de recherche non divulgué.browser.openpeut charger la page complète d'un des résultats de recherche.browser.findpeut exécuter des correspondances de motifs contre le contenu de la page retournée.
-
Recherche de contenu Meta :
meta_1p.content_searcheffectue une "Recherche sémantique à travers Instagram, Threads et les publications Facebook", mais uniquement pour les publications que l'utilisateur peut voir, créées depuis le 1er janvier 2025.
-
Génération d'images :
media.image_gengénère des images à partir de prompts et "retourne une URL CDN tout en sauvegardant l'image dans le bac à sable". Il propose des modes "artistique" et "réaliste".
-
Exécution de code Python :
container.python_executionpermet d'exécuter du code Python dans un environnement de bac à sable distant, avec Python 3.9 et plusieurs bibliothèques utiles.
-
Création d'artefacts web :
container.create_web_artifactpermet de créer des fichiers HTML+JavaScript dans son conteneur, pouvant être servis comme des iframes interactives sécurisées.
-
Analyse d'images :
container.visual_groundinganalyse une image, identifie et étiquette des objets, localise des régions ou compte des objets.
Analyse d'images et génération
Le modèle de Meta semble capable de générer des images et d'utiliser des outils Python pour les analyser. Par exemple, j'ai demandé une image d'un raton laveur assis sur une poubelle portant des déchets comme chapeau. L'image générée était assez amusante, et j'ai pu utiliser des outils Python pour l'analyser.
En utilisant l'outil container.visual_grounding, j'ai pu identifier chaque pièce de l'habillement du raton laveur avec une précision au pixel près.
Résultats de l'outil visual_grounding
Voici quelques résultats de l'outil :
- Raton laveur : grande boîte couvrant 62 % de la largeur.
- Tasse de café : positionnée en haut, mesurant 158 px de hauteur.
- Écorce de banane : chevauche la base de la tasse.
- Journal : couverture de l'oreille gauche.
- Couvercle de poubelle : s'étend presque sur toute la largeur de l'image en bas.
Meta AI a la capacité de compter les moustaches d'un raton laveur, ce qui signifie qu'il peut également compter des pélicans !
Conclusion
Le nouveau modèle de Meta, Muse Spark, et ses outils intégrés ouvrent de nouvelles possibilités pour l'interaction et l'analyse d'images. Avec des fonctionnalités avancées et des capacités d'exécution de code, il semble que Meta continue de faire des progrès significatifs dans le domaine de l'intelligence artificielle.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.