Brief IA

Votre PC ou Mac peut-il faire tourner une IA locale ? Voici comment le vérifier facilement

🤖 Models & LLMvia Numerama IA·Lisa Imperatrice·

Votre PC ou Mac peut-il faire tourner une IA locale ? Voici comment le vérifier facilement

Votre PC ou Mac peut-il faire tourner une IA locale ? Voici comment le vérifier facilement
En bref
1Un nouvel outil gratuit permet de vérifier la compatibilité de votre ordinateur pour faire tourner une IA en local.
2Cet outil simplifie le processus en traduisant le jargon technique en un verdict facile à comprendre.
3La vérification de la capacité matérielle est essentielle pour les utilisateurs souhaitant exploiter des applications d'IA sur leur propre machine.
💡Pourquoi c'est importantCela permet aux utilisateurs de maximiser l'utilisation de leur matériel et d'accéder à des technologies avancées sans dépendre du cloud.
📄
Article traduit en français

Votre PC ou Mac peut-il faire tourner une IA locale ? Voici comment le vérifier facilement

CanIRun.ai détecte votre machine et indique quels LLM open-weights (Llama, Qwen, Gemma, Mistral…) vous pouvez faire tourner en local, avec un niveau de confort estimé.

Sur Apple Silicon, l’outil traite la mémoire unifiée comme une « VRAM » unique et n’en retient qu’environ 75% pour le modèle, ce qui limite les possibilités sur des Mac comme un M1 16 Go.

Tout se fait côté navigateur : l’outil identifie GPU/CPU et mesure brièvement la performance pour établir la compatibilité, sans expédier vos données vers un serveur.

Savoir si son ordinateur peut faire tourner une IA en local relève souvent du casse-tête. Heureusement, un nouvel outil gratuit scanne votre matériel et traduit tout ce jargon en un verdict très simple.

Depuis quelques mois, les outils pour faire tourner des modèles d’IA en local se multiplient, mais une question reste sans réponse pour la plupart des gens : que peut réellement encaisser leur machine ? Le site CanIRun.ai détecte votre matériel afin de vous indiquer quels modèles d’IA il est possible de faire tourner en local sur votre machine (PC, Mac, laptop), et avec quelles performances approximatives (VRAM utilisée, vitesse de génération, etc.).

Concrètement, il se présente comme un catalogue de modèles (Llama, Qwen, Gemma, Mistral, etc.) avec, pour chaque entrée, une indication claire de sa « compatibilité » avec votre machine, allant du très confortable au totalement hors de portée. L’idée est également de transformer des notions techniques assez intimidantes (VRAM, quantization, milliards de paramètres) en un verdict lisible pour un non-spécialiste.

Comment utiliser CanIRun.ai (et avec quels modèles)

En pratique, l’interface affiche automatiquement un résumé de votre configuration, puis une liste de modèles annotés avec une sorte de bulletin de notes :

  • Ceux qui sont « confortables »
  • Ceux qui tournent mais sont « limites »
  • Ceux qui sont « trop lourds » et qu’il vaut mieux oublier

Pour vous en servir, rien de plus simple :

  • Ouvrez CanIRun.ai dans un navigateur récent.
  • Laissez le site détecter votre configuration et vérifiez rapidement que les informations affichées (puce, mémoire, GPU) semblent cohérentes.
  • Parcourez la liste des modèles et repérez ceux qui sont classés dans les catégories les plus confortables, en fonction de votre usage (chat général, code, etc.).
  • Installez l’un de ces modèles via un outil comme Jan, Ollama ou LM Studio. Vous aurez ainsi un point de départ réaliste pour l’IA locale, sans transformer votre machine en radiateur.

CanIRun.ai ne couvre que des modèles « auto-hébergeables », c’est-à-dire des modèles dont on peut télécharger les poids pour les faire tourner en local sur son propre GPU ou sa puce Apple Silicon. L’outil s’appuie sur un catalogue de modèles open-source ou open-weights populaires : TinyLlama et Llama 3.x, Gemma, Qwen, Mistral, Phi, DeepSeek, GPT-OSS, etc. Cela va du tout petit modèle d’1 à 2 milliards de paramètres jusqu’aux très gros modèles de plus de 100 milliards de paramètres. Naturellement, il ne liste pas les grands modèles cloud purement propriétaires type ChatGPT, Claude ou Gemini dans leurs versions en ligne, puisqu’on ne peut pas les exécuter « en dur » sur un PC classique.

Comment fonctionne CanIRun.ai sur Mac

Dans notre cas, avec un MacBook Air de 2020 (puce M1 et 16 Go), le comportement de CanIRun.ai est assez cohérent — bien qu’il détecte une puce M1 Pro plutôt que M1. Lorsqu’il tombe sur une machine Apple Silicon — donc avec mémoire unifiée — l’outil lit la quantité totale de mémoire disponible et l’affiche comme si la machine disposait de 16 Go de VRAM.

La case RAM est alors grisée avec une mention de mémoire unifiée : dans les faits, il ne s’agit pas de deux blocs séparés, mais bien du même pool de 16 Go partagé entre le CPU, le GPU et le reste du système.

macOS et les autres applications consomment déjà plusieurs gigaoctets, ce qui réduit la marge disponible pour un modèle local. Il faut donc lire ces chiffres comme des ordres de grandeur plutôt que comme une promesse de performances, avec une conclusion simple pour un Mac M1 16 Go : les petits et moyens modèles peuvent passer, mais les plus gros finissent par souffrir nettement. Les créateurs insistent néanmoins sur un avantage propre à Apple Silicon : selon eux, un modèle peut utiliser jusqu’à environ 75% de la mémoire totale, là où une carte graphique dédiée reste strictement limitée à sa VRAM.

Comment fonctionne l’outil sur le plan technique ?

Sur le plan technique, dès que vous ouvrez le site, la page interroge de manière assez poussée ce que le navigateur accepte de dévoiler sur votre matériel. CanIRun.ai crée notamment un petit contexte graphique en tâche de fond pour récupérer le nom exact de votre GPU ou de votre puce Apple Silicon, puis recoupe cette information avec une base interne de cartes et de processeurs pour retrouver leurs caractéristiques réelles (quantité de mémoire, bande passante, architecture…).

En parallèle, il utilise les informations système exposées par le navigateur pour estimer la RAM et le nombre de cœurs du processeur, et effectue un court test de performance pour jauger la puissance monocœur. L’ensemble de ces données sert à reconstruire un profil matériel suffisamment précis pour savoir quels modèles peuvent entrer en mémoire et à quelle vitesse ils ont des chances de tourner, le tout directement dans le navigateur et sans envoyer ces mesures à un serveur.

Pour affiner son verdict, l’outil tient également compte de la façon dont l’IA est compressée (par exemple en 4, 8 ou 16 bits, ce qu’on appelle la quantization).

Celui-ci n’est pas magique pour autant. La détection dépend de ce que le navigateur accepte d’exposer, et certains environnements peuvent masquer le nom de la carte graphique, conduisant à des estimations moins précises. C’est pour cela que les auteurs proposent, en complément, un mode où l’utilisateur peut renseigner manuellement sa configuration. De la même façon, les scores de compatibilité restent des estimations : ils donnent un ordre de grandeur fiable pour choisir un modèle ou réfléchir à un futur achat de GPU, mais ne remplacent pas un benchmark complet sur votre propre usage.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.