Apfel - Le LLM caché de votre Mac enfin libéré
Apfel - Le LLM caché de votre Mac enfin libéré
Apple a intégré un LLM dans votre Mac, mais il est verrouillé derrière Siri. Ce modèle est accessible via le framework FoundationModels, fonctionne sur le Neural Engine sans connexion internet, mais ne peut pas être appelé directement depuis un script ou un pipe shell.
L'outil s'installe en une commande :
brew install Arthur-Ficial/tap/apfel
Une fois installé, vous aurez accès au modèle directement depuis votre terminal. Assurez-vous que Apple Intelligence est actif, sinon cela ne fonctionnera pas.
Vous pouvez lui poser des questions ou lui "piper" des fichiers pour qu'il les traite, le tout sans rien télécharger, car le modèle est déjà sur votre machine. C'est un LLM de 3 milliards de paramètres, quantifié en 2 et 4 bits, qui fonctionne nativement sur les puces M1 et au-delà. Selon les benchmarks, il se défend bien face à Qwen-2.5-3B. La fenêtre de contexte est limitée à 4096 tokens (entrée + sortie combinées), soit environ 3000 mots. Il est donc adapté pour transformer du texte, classifier des données ou résumer un paragraphe, mais pas pour digérer un roman.
Apfel expose ce modèle de trois façons différentes :
- En CLI pure (compatible stdin/stdout, sortie JSON, codes d'erreur propres)
- En serveur HTTP compatible OpenAI sur localhost:11434 (avec streaming SSE, tool calling et CORS activé)
- En chat interactif multi-turn
Le serveur OpenAI permet à tous vos outils de communiquer avec l'API OpenAI (Cursor, Continue.dev, n'importe quel SDK) et d'utiliser l'IA locale de votre Mac sans modifier leur code. Le support MCP (Model Context Protocol) natif est également très pratique, car il suffit de lancer apfel avec le flag --mcp pour qu'il découvre automatiquement les outils disponibles, exécute les appels et renvoie les résultats.
Côté vie privée, le framework FoundationModels d'Apple n'a pas accès à vos contacts, emails, calendrier ou photos, et tout fonctionne sur le Neural Engine et le GPU, sans connexion internet.
Si vous avez déjà expérimenté avec Ollama et les modèles locaux, apfel suit une philosophie similaire, mais sans nécessiter de téléchargement. Contrairement à Perspective Intelligence, qui transforme votre Mac en serveur web avec PostgreSQL, apfel reste très minimaliste.
Attention, il faut être sous macOS 26 Tahoe minimum. Si vous êtes encore sous Sequoia 15.x ou Ventura 13.x, cela ne fonctionnera pas, car le framework FoundationModels n'existe pas sur ces versions. De plus, si vous avez un Mac Intel, cela ne fonctionnera pas non plus, car le Neural Engine est réservé à l'Apple Silicon.
Le projet inclut également des scripts démo intéressants dans le dossier demo/. Par exemple :
- cmd : convertit du langage naturel en commandes shell
- explain : décortique les messages d'erreur
- gitsum : résume vos commits récents
- mac-narrator : commente l'activité de votre système en temps réel
Personnellement, cmd est celui qui m'a le plus plu, même si avec 4096 tokens de contexte, il ne faut pas lui demander des commandes ffmpeg de 200 caractères.
Voici quelques usages classiques :
apfel -f README.md "Résume ce projet en 3 phrases"
apfel -f code.py -s "Tu es un développeur expérimenté" "Trouve les bugs"
echo "Traduis ça en allemand : Salut" | apfel
Et quelques usages plus ludiques :
git diff HEAD~1 | apfel -f CONVENTIONS.md "Review ce diff par rapport à mes conventions"
apfel -f old.swift -f new.swift "Qu'est-ce qui a changé entre ces deux fichiers ?"
demo/oneliner "compte les IPs uniques dans access.log"
Vous pouvez même piper la sortie en JSON pour chaîner avec jq, ou lancer le mode --serve et connecter Cursor pour bénéficier d'une autocomplétion locale gratuite. Si vous êtes du genre prudent, le mode --chat avec --context-strategy summarize gère automatiquement le contexte lorsque la conversation dépasse les 4096 tokens.
Côté écosystème, il existe également une interface SwiftUI native pour discuter avec le modèle, avec speech-to-text et text-to-speech sur l'appareil, ainsi que des actions IA en développement qui s'ajoutent dans la barre de menus pour corriger la grammaire, traduire, résumer, le tout sous licence MIT.
En résumé, c'est un super modèle, mais avec 3 milliards de paramètres et 4096 tokens de contexte, il ne faut pas s'attendre à remplacer Claude ou GPT. Les mathématiques complexes, la génération de code avancée et les longues conversations ne sont pas son fort, mais pour du scripting, de la classification ou la transformation de texte à la volée, cela dépanne efficacement !
De plus, ce modèle préfère refuser plutôt qu'halluciner, ce qui est une bonne surprise. Si vous avez un Mac Apple Silicon sous macOS Tahoe, ces outils valent le coup d'œil pour vos petites tâches IA basiques et rapides du quotidien.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.