CATAI - Des chats pixel art boostés à l'IA sur votre dock
💻 Code & Dev

CATAI - Des chats pixel art boostés à l'IA sur votre dock

Korben
Korben·3 min·1 vues
En bref
1CATAI permet d'adopter 6 chats virtuels en pixel art sur macOS, chacun ayant une personnalité unique.
2L'application utilise un LLM local pour permettre aux chats de communiquer, offrant une expérience interactive.
3Avec 368 sprites dessinés à la main, CATAI combine nostalgie et technologie moderne pour créer un Tamagotchi numérique.
💡Pourquoi c'est importantCATAI illustre comment l'IA peut transformer des éléments de divertissement traditionnels en expériences interactives modernes.
📄
Article traduit en français

CATAI - Des chats pixel art boostés à l'IA sur votre dock

Des chats en pixel art se déplacent sur votre dock macOS et interagissent grâce à un LLM local. Ce n'est pas un rêve, mais une réalité avec cette application qui vous permet d'adopter 6 matous virtuels, chacun ayant sa propre personnalité.

En résumé, c'est le Tamagotchi de votre dock, mais au lieu de faire bip quand il a faim, il vous cite du Nietzsche. Vous lancez l'application, et un chat orange apparaît. Il marche, mange, dort, s'énerve... soit 368 sprites dessinés à la main (une rareté à souligner !). Lorsque le dock est masqué, le chat se téléporte sur le bord supérieur de votre fenêtre active, car un chat aime toujours squatter les endroits improbables.

Vous pouvez avoir jusqu'à 6 chats en même temps, chacun avec sa couleur et son caractère :

  • Le noir (Ombre) est philosophe et pose des questions existentielles.
  • Le blanc (Neige) s'exprime en vers.
  • Le gris (Einstein) partage des faits scientifiques.
  • Le brun (Indiana) raconte des aventures.

De temps en temps, ils miaulent dans des bulles en pixel art : "Mrrp !", "Prrr...", "ronronronron". Personnellement, je trouve cela adorable.

En cliquant sur un chat, une bulle de discussion s'ouvre, connectée à Ollama (le moteur d'IA locale que vous connaissez sûrement). Si vous avez déjà un modèle en fonctionnement, votre matou vous répond avec sa propre personnalité. La mémoire de conversation est persistante entre les sessions (maximum 20 messages par chat, pour garder un contexte raisonnable).

Étant donné que c'est du Swift pur, il suffit des Command Line Tools pour compiler le fichier source :

swiftc -O -o cat cat.swift -framework AppKit -framework Foundation

La compilation prend environ 3 secondes sur un M1, et le binaire pèse environ 500 Ko, soit moins qu'une photo prise avec un iPhone. Un script build.sh est également disponible pour créer une application propre avec son icône, si vous le préférez.

Les plus anciens se souviendront peut-être de Neko, le petit chat qui courait après votre curseur, porté sur Mac en 1989 par Kenji Gotoh, l'un des premiers desktop pets connus. Cependant, en 2026, ce chat vous fait la conversation via un LLM local. Si vous utilisez déjà Ollama ou avez découvert le LLM caché de votre Mac, c'est une utilisation à laquelle vous n'aviez probablement pas pensé.

Notez que sans Ollama, les chats se déplacent mais restent muets (ce qui est déjà sympa en soi). Si vous utilisez un modèle trop lourd, comme un 70B, cela peut ralentir le système, car le streaming passe par localhost. Un petit Qwen 2.5 ou Llama 3.2 3B est largement suffisant pour des réponses de chat en 2-3 phrases.

Merci à William pour la découverte.

Lire l'article original sur Korben

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires