Les capacités offensives de cybersécurité de l'IA doublent tous les six mois, selon des chercheurs en sécurité
La société de recherche en sécurité Lyptus Research a publié une nouvelle étude sur les capacités offensives en cybersécurité des modèles d'IA. L'étude repose sur la méthode METR de prévision temporelle et a impliqué des tests avec dix experts en sécurité professionnels.
Selon les résultats, la capacité offensive de l'IA en matière de cybersécurité a doublé tous les 9,8 mois depuis 2019, et depuis 2024, ce rythme s'est accéléré à tous les 5,7 mois. Les modèles Opus 4.6 et GPT-5.3 Codex peuvent désormais résoudre des tâches avec un taux de réussite de 50 % en utilisant un budget de deux millions de tokens, ce qui prendrait environ trois heures à des experts humains.
Évolution des capacités offensives de l'IA au fil du temps
- De GPT-2 (2019) à Opus 4.6 et GPT-5.3 Codex (2026), l'horizon temporel est passé de 30 secondes à environ trois heures.
- Le temps de doublement a été réduit de 9,8 mois (depuis 2019) à 5,7 mois (depuis 2024).
Performances améliorées avec des budgets de tokens plus élevés
- GPT-5.3 Codex passe d'un horizon de 3,1 heures à 10,5 heures lorsqu'il dispose de dix millions de tokens au lieu de deux millions.
- Les chercheurs estiment que cela suggère qu'ils sous-estiment encore le véritable rythme de progrès. Les modèles open-source accusent un retard d'environ 5,7 mois par rapport à leurs homologues fermés.
L'étude a porté sur un total de 291 tâches. Toutes les données sont disponibles sur GitHub et Hugging Face, avec le rapport complet accessible ici.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
