Brief IA

LiteRT - L'IA embarquée de Google passe la seconde

💻 Code & Devvia Korben·Korben·

LiteRT - L'IA embarquée de Google passe la seconde

LiteRT - L'IA embarquée de Google passe la seconde

⚡ Résumé en français par Brief IA

Google a rebrandé TensorFlow Lite en LiteRT, introduisant des améliorations majeures pour l'inférence embarquée.
La nouvelle API Compil optimise les modèles de machine learning, augmentant leur efficacité sur des appareils variés.
LiteRT permet l'exécution de modèles directement sur des appareils comme les smartphones et Raspberry Pi, réduisant la dépendance au cloud.
💡 Pourquoi c'est important : LiteRT renforce l'autonomie des applications IA et améliore la confidentialité des données des utilisateurs.

📄 Article traduit en français

LiteRT - L'IA embarquée de Google passe la seconde

TensorFlow Lite, c'est fini. Enfin presque, car Google a récemment rebrandé son framework d'inférence embarquée sous le nom de LiteRT, et en a profité pour apporter de nombreuses améliorations sous le capot.

Rassurez-vous, mes petits prompts engineers (lol), le principe reste le même : faire tourner des modèles de machine learning directement sur votre smartphone, votre tablette ou votre Raspberry Pi, sans envoyer vos données dans le cloud. Cependant, cette fois, il y a une nouvelle API baptisée Compiled Model qui change la donne, car l'ancien système vous obligeait à choisir manuellement votre accélérateur.

Avec ce Compiled Model, le runtime sélectionne automatiquement le meilleur accélérateur disponible, que ce soit le CPU, le GPU ou le NPU de votre appareil. Cela gère également l'exécution asynchrone et le zéro-copie côté buffers GPU, ce qui signifie qu'en termes de latence, on passe de la 2CV au TGV. Bref, moins de bricolage pour les développeurs.

Côté plateformes, c'est plutôt copieux :

  • Sur Android, ça exploite les NPU de Qualcomm, MediaTek et Google Tensor.
  • Sur iOS, Metal se charge du GPU (et l'Apple Neural Engine arrive bientôt).
  • Linux passe par WebGPU, macOS par Metal, et Windows reste en CPU pour le moment.
  • Google annonce même un support IoT avec Raspberry Pi. Carrément, du smartphone au micro-contrôleur !

Attention cependant, certains supports NPU sont encore marqués "à venir", donc ne vous attendez pas à tout faire tourner sur n'importe quel chipset dès demain.

D'ailleurs, le gros morceau, c'est le support de l'IA générative embarquée. Avec le module LiteRT-LM, vous pouvez déployer des LLMs directement sur le téléphone. Pas de serveur, pas de connexion, tout tourne dans la poche. Bon, il ne faut pas s'attendre à faire tourner un modèle de 70B paramètres sur un Pixel non plus, mais pour les développeurs qui souhaitent intégrer du GenAI dans leurs applications mobiles sans dépendre du cloud, c'est franchement pas mal.

Et si vous pouvez déjà faire tourner des modèles en local sur votre PC, ici je vous parle carrément d'appareils mobiles et d'embarqué.

Côté langages, il y a le choix :

  • Kotlin et C++ pour la nouvelle API Compiled Model.
  • Swift pour l'API Interpreter sur iOS.
  • Python pour le desktop.

Et si vous venez du monde PyTorch, un convertisseur dédié transforme vos modèles au format .tflite sans trop de douleur. L'ancienne API Interpreter reste disponible pour la rétrocompatibilité, mais à vrai dire, Google pousse clairement vers Compiled Model. Du coup, si vous aviez des projets TensorFlow Lite existants, la migration se fait en douceur car le format .tflite ne change pas.

En fait, le problème, c'est plutôt le manque de documentation sur les cas tordus... et n'oubliez pas de tester vos modèles après conversion.

Pour ceux qui voudraient se lancer, il y a aussi un codelab de segmentation d'images en temps réel sur Android et une collection de modèles pré-entraînés sur Kaggle. Des applications d'exemple sont disponibles sur GitHub pour ne pas repartir de zéro (détection d'objets, classification d'images, pose estimation...). Et si vous êtes plutôt Apple, sachez que l'IA locale sur mobile est clairement la tendance du moment.

Bref, si l'inférence embarquée ça vous parle, ça vaut clairement le coup d’œil !

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.