Brief IA

Securing AI systems under today’s and tomorrow’s conditions

⚖️ Regulation & Ethicsvia AI News·AI News·

Securing AI systems under today’s and tomorrow’s conditions

Securing AI systems under today’s and tomorrow’s conditions
En bref
1Les risques de sécurité sont perçus comme le principal obstacle à l'adoption efficace de l'IA par les organisations.
270% des entreprises estiment que la sécurité des données est cruciale pour l'IA.
3L'importance de la résilience quantique est mise en avant pour protéger les modèles d'IA contre les menaces futures.
💡Pourquoi c'est importantLa sécurité des systèmes d'IA est essentielle pour garantir leur adoption et leur efficacité dans un monde de plus en plus numérique.
📄
Article traduit en français

Sécuriser les systèmes d'IA dans les conditions d'aujourd'hui et de demain

Des preuves citées dans un eBook intitulé “AI Quantum Resilience”, publié par Utimaco, montrent que les organisations considèrent les risques de sécurité comme le principal obstacle à l'adoption efficace de l'IA sur les données qu'elles détiennent.

La valeur de l'IA dépend des données accumulées par une organisation. Cependant, il existe des risques de sécurité liés à la construction de modèles et à leur entraînement sur ces données. Ces risques s'ajoutent aux menaces mieux connues concernant la propriété intellectuelle qui existent autour du point d'inférence (comme l'ingénierie des prompts, par exemple).

Les auteurs de l'eBook affirment que les organisations doivent gérer les menaces tout au long de leurs processus de développement et d'implémentation de l'IA. Parallèlement, les entreprises peuvent et doivent se préparer à modifier leurs protocoles de sécurité, des changements qui deviendront obligatoires si des outils de décryptage alimentés par l'informatique quantique deviennent facilement accessibles aux acteurs malveillants.

Utimaco identifie trois domaines menacés :

  • Les données d'entraînement peuvent être manipulées par des acteurs malveillants, dégradant les résultats des modèles de manière difficile à détecter.
  • Les modèles peuvent être extraits ou copiés, érodant les droits de propriété intellectuelle.
  • Les données sensibles utilisées lors de l'entraînement ou de l'inférence peuvent être exposées.

La cryptographie à clé publique actuelle deviendra vulnérable dans les dix prochaines années, attestent les auteurs du rapport ; une période durant laquelle des systèmes quantiques capables pourraient émerger. Quoi qu'il en soit, il est pensé que des groupes mieux organisés collectent actuellement des données chiffrées et les stockent pour les déchiffrer lorsque des installations quantiques deviendront disponibles. Tout ensemble de données ayant une sensibilité à long terme, y compris les données d'entraînement des modèles, les dossiers financiers ou la propriété intellectuelle, pourrait nécessiter une protection contre un décryptage futur, selon Utimaco.

Une migration vers une cryptographie résistante aux quantiques affectera les protocoles, la gestion des clés, l'interopérabilité des systèmes et les performances, donc toute migration prendra probablement plusieurs années. Les auteurs du rapport suggèrent ce qu'ils appellent ‘crypto-agilité’, qu'ils définissent comme le changement d'algorithmes cryptographiques sans redessiner les systèmes sous-jacents. La ‘crypto-agilité’ repose sur le principe de la cryptographie hybride – combinant des algorithmes établis avec des méthodes post-quantiques, telles que celles suggérées par le NIST.

Les auteurs de l'eBook s'accordent à dire que la cryptographie à elle seule ne couvre pas tous les domaines de risque possibles. Ils préconisent l'utilisation de dispositifs de confiance basés sur le matériel qui peuvent isoler les clés cryptographiques et les opérations sensibles des environnements de travail normaux.

Si les entreprises développent leurs propres outils et processus d'IA, la protection sur cette base devrait s'étendre tout au long du cycle de vie de l'IA, de l'ingestion des données à l'entraînement, au déploiement des modèles et à l'inférence en production. Des clés matérielles utilisées pour chiffrer les données et signer les modèles peuvent être générées et stockées à l'intérieur d'une frontière. L'intégrité des modèles peut alors être vérifiée avant le déploiement, et les données sensibles traitées lors de l'inférence restent protégées.

Les enclaves basées sur le matériel isolent les charges de travail de sorte que même les administrateurs système ayant des privilèges suffisants ne peuvent pas accéder aux données en cours de traitement. Les modules matériels peuvent vérifier que l'enclave de données est dans un état de confiance avant de libérer les clés – un processus d'attestation externe – aidant à créer une ‘chaîne de confiance’ du matériel à l'application.

La gestion des clés basée sur le matériel produit des journaux résistants à la falsification couvrant l'accès et les opérations pour soutenir des cadres de conformité tels que la Loi sur l'IA de l'UE.

De nombreux risques inhérents aux systèmes d'IA sont bien connus, voire déjà exploités. Le risque lié à la capacité de l'informatique quantique à déchiffrer des données actuellement considérées comme sûres est moins immédiat, mais les implications devraient influencer les décisions concernant les données et l'infrastructure prises aujourd'hui, déclare Utimaco. Il préconise :

  • Un renforcement des contrôles tout au long du cycle de vie de développement et de déploiement de l'IA,
  • L'introduction de ‘crypto-agilité’ pour permettre la transition vers une sécurité post-quantique,
  • L'établissement de mécanismes de confiance basés sur le matériel chaque fois que des actifs de grande valeur sont en jeu.
TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.