Brief IA

Laure de Roucy-Rochegonde, politiste : « Le recours à l’IA dans le cadre des opérations militaires marginalise la prise de décision humaine »

⚖️ Régulation & Éthiquevia Le Monde IA·

Laure de Roucy-Rochegonde, politiste : « Le recours à l’IA dans le cadre des opérations militaires marginalise la prise de décision humaine »

Laure de Roucy-Rochegonde, politiste : « Le recours à l’IA dans le cadre des opérations militaires marginalise la prise de décision humaine »

⚡ Résumé en français par Brief IA

• Laure de Roucy-Rochegonde souligne que l'IA accélère les opérations militaires au point de rendre difficile la prise de décision humaine. • L'impact de l'IA sur le champ de bataille pourrait entraîner une perte de contrôle humain dans les décisions critiques. • Ce phénomène soulève des questions éthiques et stratégiques sur l'avenir des conflits armés et la responsabilité des actions militaires. 💡 Pourquoi c'est important : La dépendance croissante à l'IA dans les opérations militaires pourrait redéfinir les règles de l'engagement et la responsabilité des acteurs en guerre.

📄 Article traduit en français

Laure de Roucy-Rochegonde, politiste : « Le recours à l’IA dans le cadre des opérations militaires marginalise la prise de décision humaine »

« La guerre en Iran inaugure une ère de bombardements pilotés par l’intelligence artificielle (IA) plus rapides que la vitesse de la pensée », estimait un article du Guardian daté du 3 mars au sujet de l’opération « Fureur épique », lancée le 28 février par les États-Unis et Israël contre la République islamique d’Iran. Ne serait-ce qu’au cours des douze premières heures de l’offensive, Washington et Tel-Aviv ont mené 900 frappes contre des objectifs iraniens, provoquant notamment la mort du Guide suprême, Ali Khamenei. Ce déluge de feu à une cadence extrêmement élevée – plus d’une frappe par minute – n’est pas sans rappeler celui qui a déferlé sur Gaza après le début de l’opération « Epées de fer », en octobre 2023.

Or, le magazine d’investigation israélien +972 a depuis relaté la manière dont des programmes d’IA avaient servi de véritables « usines à cibles », permettant à l’armée israélienne de démultiplier ses capacités en la matière. Dans le cas iranien, le Wall Street Journal a révélé, dès les premières heures du conflit, que Claude, le modèle d’IA générative d’Anthropic, pourtant fraîchement banni du Pentagone, avait été utilisé par l’armée américaine pour planifier l’attaque lancée le 28 février.

Pour comprendre ce que le recours à des techniques d’IA apporte dans une opération comme celle-ci, il faut d’abord rappeler les étapes du ciblage. Avant d’être frappée, une cible doit être :

  • localisée et suivie,
  • son importance évaluée,
  • son environnement déterminé – pour estimer le risque de dommage collatéral,
  • un certain type d’arme et de vecteur sélectionnés et, finalement, employés.

C’est pour accélérer ce processus – allant de l’identification de la cible à l’approbation légale et au lancement de la frappe, appelé « kill chain » – que Claude aurait été utilisé, aux côtés d’outils fournis par d’autres acteurs du secteur, Palantir en tête.

Les techniques d’IA réduisent ainsi considérablement le délai entre la collecte d’informations, l’analyse, la décision et l’action militaire, permettant, concrètement, de frapper un plus grand nombre de cibles, plus vite, à moindres frais et avec l’apparence d’une justification rationnelle. Toutefois, comme le pressentait, dès 2009, le politiste Armin Krishnan, ces avancées technologiques risquent de rendre la guerre « inhumainement efficace ». La rapidité et l’ampleur du recours à l’IA dans la planification et la conduite des opérations font en effet craindre une marginalisation de la prise de décision humaine.

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.