IA : pourquoi Anthropic recrute-t-il un spécialiste en armes chimiques ?
⚖️ Regulation & Ethique

IA : pourquoi Anthropic recrute-t-il un spécialiste en armes chimiques ?

Presse-citron
Setra·3 min·0 vues
En bref
1Anthropic recrute un spécialiste en armes chimiques pour améliorer la sécurité de son IA.
2Ce recrutement s'inscrit dans un contexte où la sécurité de l'IA est primordiale pour prévenir les abus, un enjeu majeur pour l'industrie.
3La démarche d'Anthropic met en lumière la nécessité d'une approche responsable dans le développement de technologies avancées.
💡Pourquoi c'est importantLa sécurité de l'IA est devenue un enjeu stratégique pour les entreprises, influençant leur réputation et leur conformité réglementaire.
📄
Article traduit en français

IA : pourquoi Anthropic recrute-t-il un spécialiste en armes chimiques ?

Cette offre d’emploi d’Anthropic, l’un des principaux concurrents d’OpenAI, pourrait vous choquer, si vous ne lisez pas tout. Sur LinkedIn, le laboratoire d’intelligence artificielle a annoncé, il y a deux semaines, qu’il est à la recherche d’un spécialiste en armes chimiques et en explosifs à haut rendement, pour un poste de policy manager. Le créateur du chatbot Claude ne cherche cependant pas à entrer dans le marché de l’armement. Bien au contraire, si celui-ci veut recruter un expert, c’est pour faire en sorte que ses modèles d’IA ne soient pas utilisés pour fabriquer des armes.

En effet, si les grands modèles de langage ont la capacité d’augmenter la productivité des travailleurs, ceux-ci peuvent aussi être utilisés à des fins malveillantes, lorsqu’il n’y a pas de restrictions, ou lorsque les dispositifs mis en place sont contournés. “Ce poste vous offre une occasion unique de contribuer à définir la manière dont les systèmes d’IA traitent les informations sensibles relatives aux produits chimiques et aux explosifs. Vous travaillerez aux côtés de chercheurs de premier plan spécialisés dans la sécurité de l’IA, tout en vous attaquant à des problèmes cruciaux pour prévenir toute utilisation abusive pouvant entraîner des conséquences catastrophiques”, lit-on dans l’offre d’emploi. Celle-ci indique aussi que le profil recherché doit avoir une connaissance dans l’application des explosifs à haut rendement aux dispositifs de dispersion radiologique, également appelés “bombe sale”. Le salaire proposé se situe entre 245 000 dollars et 285 000 dollars par an, et le poste requiert un Ph.D, ainsi que 5 à 8 années d’expérience dans la défense contre les armes chimiques ou contre les explosifs.

Anthropic est en plein bras de fer contre le Pentagone

Notons que cette stratégie, qui consiste à recruter des experts pour tenter de bloquer l’utilisation de l’IA à des fins malveillantes, est aussi adoptée par OpenAI, le créateur de ChatGPT. Comme l’a noté la BBC, OpenAI recrute, par exemple, un expert dans les risques biologiques et chimiques. En tout cas, l’offre d’emploi d’Anthropic est relayée par les médias alors que la startup est en plein bras de fer avec le Pentagone.

Pour rappel, le Département de la Guerre des États-Unis et Anthropic n’ont pas pu trouver d’accord pour l’utilisation des technologies de la startup dans la défense, à cause des conditions qu’Anthropic a voulu imposer. Par exemple, celui-ci veut interdire l’utilisation des IA de Claude pour de la surveillance de masse aux États-Unis. De ce fait, l’administration Trump a désigné “Anthropic comme une entreprise présentant un risque pour la sécurité nationale au sein de sa chaîne d’approvisionnement”. “Aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l’armée américaine n’est autorisé à mener une quelconque activité commerciale avec Anthropic”, a expliqué le secrétaire américain à la Guerre, Pete Hegseth. Et, en réponse, Anthropic a décidé de contester cette désignation devant la justice américaine.

En tout cas, cette saga a soudainement propulsé les téléchargements de l’application Claude par le grand public, alors que celle-ci est déjà prisée par les entreprises.

Lire l'article original sur Presse-citron

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires