Les capacités offensives de cybersécurité de l'IA doublent tous les six mois, selon des chercheurs en sécurité
🤖 Modeles & LLM

Les capacités offensives de cybersécurité de l'IA doublent tous les six mois, selon des chercheurs en sécurité

The Decoder
Matthias Bastian·2 min·0 vues
En bref
1Les modèles d'IA améliorent rapidement leur capacité à exploiter des vulnérabilités de sécurité.
2Les capacités offensives de l'IA doublent tous les 5,7 mois depuis 2024.
3Des modèles comme Opus 4.6 et GPT-5.3 Codex accomplissent des tâches en trois heures, un travail qui prendrait des heures à des experts humains.
💡Pourquoi c'est importantcette évolution rapide des capacités d'IA pose des défis majeurs en matière de sécurité et de protection des données.
📄
Article traduit en français

Les capacités offensives de cybersécurité de l'IA doublent tous les six mois, selon des chercheurs en sécurité

La société de recherche en sécurité Lyptus Research a publié une nouvelle étude sur les capacités offensives en cybersécurité des modèles d'IA. L'étude repose sur la méthode METR de prévision temporelle et a impliqué des tests avec dix experts en sécurité professionnels.

Selon les résultats, la capacité offensive de l'IA en matière de cybersécurité a doublé tous les 9,8 mois depuis 2019, et depuis 2024, ce rythme s'est accéléré à tous les 5,7 mois. Les modèles Opus 4.6 et GPT-5.3 Codex peuvent désormais résoudre des tâches avec un taux de réussite de 50 % en utilisant un budget de deux millions de tokens, ce qui prendrait environ trois heures à des experts humains.

Évolution des capacités offensives de l'IA au fil du temps

  • De GPT-2 (2019) à Opus 4.6 et GPT-5.3 Codex (2026), l'horizon temporel est passé de 30 secondes à environ trois heures.
  • Le temps de doublement a été réduit de 9,8 mois (depuis 2019) à 5,7 mois (depuis 2024).

Performances améliorées avec des budgets de tokens plus élevés

  • GPT-5.3 Codex passe d'un horizon de 3,1 heures à 10,5 heures lorsqu'il dispose de dix millions de tokens au lieu de deux millions.
  • Les chercheurs estiment que cela suggère qu'ils sous-estiment encore le véritable rythme de progrès. Les modèles open-source accusent un retard d'environ 5,7 mois par rapport à leurs homologues fermés.

L'étude a porté sur un total de 291 tâches. Toutes les données sont disponibles sur GitHub et Hugging Face, avec le rapport complet accessible ici.

Lire l'article original sur The Decoder

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires