🔬 Recherche

Le Pentagone prévoit de permettre aux entreprises d'IA de s'entraîner sur des données classifiées, selon un responsable de la défense

MIT Tech Review
James O'Donnell·5 min·0 vues
En bref
1Le Pentagone envisage de créer des environnements sécurisés pour que les entreprises d'IA générative s'entraînent sur des données militaires classifiées.
2Les modèles d'IA comme Claude d'Anthropic sont déjà utilisés pour des analyses dans des contextes classifiés.
3Cette initiative pourrait transformer la manière dont l'IA est intégrée dans les opérations militaires, en augmentant l'efficacité des analyses de cibles.
💡Pourquoi c'est importantCela pourrait révolutionner l'utilisation de l'IA dans la défense, offrant un avantage stratégique significatif.
📄
Article traduit en français

Le Pentagone prévoit de permettre aux entreprises d'IA de s'entraîner sur des données classifiées

Le Pentagone discute de la mise en place d'environnements sécurisés pour que les entreprises d'IA générative puissent entraîner des versions spécifiques à l'armée de leurs modèles sur des données classifiées, selon des informations obtenues par MIT Technology Review.

Les modèles d'IA, comme Claude d'Anthropic, sont déjà utilisés pour répondre à des questions dans des contextes classifiés, notamment pour analyser des cibles en Iran. Cependant, permettre aux modèles de s'entraîner et d'apprendre à partir de données classifiées représenterait un nouveau développement présentant des risques de sécurité uniques. Cela signifierait que des renseignements sensibles, tels que des rapports de surveillance ou des évaluations de champ de bataille, seraient intégrés directement dans les modèles, rapprochant ainsi les entreprises d'IA des données classifiées.

Selon un responsable de la défense américain ayant parlé sous couvert d'anonymat à MIT Technology Review, entraîner des versions de modèles d'IA sur des données classifiées devrait les rendre plus précis et efficaces pour certaines tâches. Cette annonce intervient alors que la demande de modèles plus puissants est élevée : le Pentagone a conclu des accords avec OpenAI et xAI d'Elon Musk pour faire fonctionner leurs modèles dans des environnements classifiés, et met en œuvre un nouvel agenda pour devenir une force de combat « axée sur l'IA » alors que le conflit avec l'Iran s'intensifie. (Le Pentagone n'a pas commenté ses plans d'entraînement en IA au moment de la publication.)

L'entraînement se ferait dans un centre de données sécurisé, accrédité pour héberger des projets gouvernementaux classifiés, où une copie d'un modèle d'IA serait associée à des données classifiées, selon deux personnes familières avec le fonctionnement de ces opérations. Bien que le Département de la Défense reste propriétaire des données, du personnel d'entreprises d'IA ayant les autorisations de sécurité appropriées pourrait, dans de rares cas, accéder à ces données, a précisé le responsable.

Cependant, avant de permettre ce nouvel entraînement, le responsable a indiqué que le Pentagone entend d'abord évaluer l'exactitude et l'efficacité des modèles lorsqu'ils sont entraînés sur des données non classifiées, comme des images satellites disponibles commercialement.

L'armée utilise depuis longtemps des modèles de vision par ordinateur, une forme plus ancienne d'IA, pour identifier des objets dans des images et des séquences collectées par des drones et des avions, et des agences fédérales ont attribué des contrats à des entreprises pour entraîner des modèles d'IA sur ce type de contenu. De plus, les entreprises d'IA développant des modèles de langage (LLMs) et des chatbots ont créé des versions de leurs modèles adaptées aux travaux gouvernementaux, comme Claude Gov d'Anthropic, conçu pour fonctionner dans plusieurs langues et dans des environnements sécurisés. Cependant, les commentaires du responsable constituent la première indication que les entreprises d'IA développant des LLMs, comme OpenAI et xAI, pourraient entraîner des versions spécifiques au gouvernement de leurs modèles directement sur des données classifiées.

Aalok Mehta, qui dirige le Wadhwani AI Center au Center for Strategic and International Studies et a précédemment dirigé les efforts de politique en IA chez Google et OpenAI, affirme que s'entraîner sur des données classifiées, plutôt que de simplement répondre à des questions à leur sujet, présenterait de nouveaux risques.

Le plus grand de ces risques, selon lui, est que les informations classifiées sur lesquelles ces modèles s'entraînent pourraient être révélées à quiconque utilisant le modèle. Cela poserait un problème si de nombreux départements militaires, chacun ayant des niveaux de classification et des besoins d'information différents, partageaient le même modèle d'IA.

« Vous pouvez imaginer, par exemple, un modèle ayant accès à une sorte de renseignement humain sensible—comme le nom d'un agent—fuit cette information à une partie du Département de la Défense qui n'est pas censée y avoir accès », explique Mehta. Cela pourrait créer un risque de sécurité pour l'agent, un risque difficile à atténuer si un modèle particulier est utilisé par plusieurs groupes au sein de l'armée.

Cependant, Mehta précise qu'il n'est pas aussi difficile de garder l'information contenue du monde extérieur : « Si vous configurez cela correctement, vous aurez très peu de risques que ces données soient révélées sur Internet ou renvoyées à OpenAI. » Le gouvernement dispose déjà d'une partie de l'infrastructure nécessaire ; le géant de la sécurité Palantir a remporté des contrats importants pour construire un environnement sécurisé permettant aux responsables de poser des questions à des modèles d'IA sur des sujets classifiés sans renvoyer l'information aux entreprises d'IA. Mais utiliser ces systèmes pour l'entraînement reste un nouveau défi.

Le Pentagone, poussé par un mémo du secrétaire à la Défense Pete Hegseth en janvier, s'efforce d'incorporer davantage d'IA. Cela inclut son utilisation au combat, comme l'IA générative classant des listes de cibles et recommandant lesquelles frapper en premier, ainsi que dans des rôles plus administratifs, comme la rédaction de contrats et de rapports.

Il existe de nombreuses tâches actuellement gérées par des analystes humains que l'armée pourrait vouloir entraîner des modèles d'IA avancés à réaliser et qui nécessiteraient un accès à des données classifiées, indique Mehta. Cela pourrait inclure l'apprentissage pour identifier des indices subtils dans une image de la manière dont un analyste le fait, ou relier de nouvelles informations à un contexte historique. Les données classifiées pourraient être extraites des quantités inimaginables de textes, d'audios, d'images et de vidéos dans de nombreuses langues collectées par les services de renseignement.

Il est très difficile de dire quelles tâches militaires spécifiques nécessiteraient que des modèles d'IA s'entraînent sur de telles données, prévient Mehta, « parce que, évidemment, le Département de la Défense a de nombreux incitatifs à garder ces informations confidentielles, et il ne veut pas que d'autres pays sachent exactement quelles capacités nous avons dans ce domaine. »

Lire l'article original sur MIT Tech Review
Commentaires