Brief IA

Popular AI proxy LiteLLM got hacked with malware that spreads through Kubernetes clusters

💻 Code & Devvia The Decoder·Matthias Bastian·

Popular AI proxy LiteLLM got hacked with malware that spreads through Kubernetes clusters

Popular AI proxy LiteLLM got hacked with malware that spreads through Kubernetes clusters
En bref
1LiteLLM, un proxy open-source pour les API AI, a été compromis par un malware qui vole des identifiants et se propage dans les systèmes cloud.
2Le directeur AI de NVIDIA, Jim Fan, souligne que cela représente une nouvelle catégorie d'attaques ciblant les agents AI.
3Ce type d'attaque met en évidence la vulnérabilité croissante des infrastructures cloud utilisées par les technologies AI.
💡Pourquoi c'est importantla sécurité des systèmes AI est cruciale pour prévenir des violations de données massives et maintenir la confiance dans les solutions basées sur l'IA.
📄
Article traduit en français

Le proxy AI populaire LiteLLM piraté par un malware se propageant à travers les clusters Kubernetes

La bibliothèque open-source LiteLLM, un proxy largement utilisé pour les API de modèles de langage AI, a été compromise par un malware via PyPI. Le chercheur en sécurité Callum McMahon de Futuresearch a découvert que les versions 1.82.7 et 1.82.8 avaient été altérées le 24 mars 2026, sans correspondance dans le dépôt officiel de GitHub.

Le malware vole les clés SSH, les identifiants cloud, les mots de passe de base de données et les configurations Kubernetes, les chiffre et les exfiltre vers un serveur tiers. Il se propage également à travers les clusters Kubernetes et installe des portes dérobées permanentes. L'attaque a été révélée lorsque le package a planté dans l'éditeur de code Cursor. McMahon indique que l'auteur de LiteLLM est "très probablement complètement compromis". Toute personne affectée devrait immédiatement faire tourner tous ses identifiants. Plus de détails sont disponibles sur GitHub.

Le directeur AI de Nvidia, Jim Fan, qualifie cet incident de "vraie source de cauchemars". Il avertit que les agents AI pourraient être manipulés via des fichiers infectés : chaque fichier texte dans le contexte devient un vecteur d'attaque, et un agent compromis pourrait usurper l'identité de l'utilisateur sur tous les comptes. Au lieu de s'appuyer sur des chaînes de dépendances étendues, Fan recommande de construire des solutions personnalisées et légères. Il prédit également l'émergence d'une nouvelle industrie pour le "dé-vibing" - "le vieux logiciel ennuyeux et audité 1.0 qui surveille les adolescents rebelles du logiciel 3.0", comme il le décrit.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.