The biggest AI stories of the year (so far)
⚡ Résumé en français par Brief IA
• L'industrie de l'IA a connu des acquisitions majeures et des succès d'indépendants. • Les négociations contractuelles soulèvent des préoccupations existentielles. • La réaction du public face aux avancées technologiques est de plus en plus forte. 💡 Pourquoi c'est important : Ces développements façonnent l'avenir de l'IA et son intégration dans la société.
📄 Article traduit en français
Les plus grandes histoires d'IA de l'année (jusqu'à présent)
L'industrie de l'IA ne cesse de produire des nouvelles, des acquisitions majeures aux succès de développeurs indépendants, en passant par des réactions publiques contre des produits douteux et des négociations contractuelles potentiellement dangereuses. Voici un aperçu des événements marquants de cette année.
Anthropic contre le Pentagone
Autrefois partenaires commerciaux, le PDG d'Anthropic, Dario Amodei, et le secrétaire à la Défense, Pete Hegseth, ont atteint un point mort amer en février lors de la renégociation des contrats régissant l'utilisation des outils d'IA d'Anthropic par l'armée américaine.
Anthropic a établi une ligne de conduite claire contre l'utilisation de son IA pour la surveillance de masse des Américains ou pour alimenter des armes autonomes capables d'attaquer sans supervision humaine. De son côté, le Pentagone a soutenu que le Département de la Défense — que l'administration de Donald Trump appelle le Département de la Guerre — devrait avoir accès aux modèles d'Anthropic pour tout usage "légal". Les représentants du gouvernement ont été offensés par l'idée que l'armée soit limitée par les règles d'une entreprise privée, mais Amodei est resté ferme.
“Anthropic comprend que le Département de la Guerre, et non les entreprises privées, prend les décisions militaires. Nous n'avons jamais soulevé d'objections à des opérations militaires particulières ni tenté de limiter l'utilisation de notre technologie de manière ad hoc,” a écrit Amodei dans une déclaration. “Cependant, dans un ensemble restreint de cas, nous croyons que l'IA peut saper, plutôt que défendre, les valeurs démocratiques.”
Le Pentagone a donné à Anthropic un délai pour accepter leur contrat. Des centaines d'employés de Google et d'OpenAI ont signé une lettre ouverte exhortant leurs dirigeants respectifs à respecter les limites d'Amodei et à ne pas céder sur les questions d'armes autonomes ou de surveillance domestique.
Le délai est passé sans qu'Anthropic n'accepte les exigences du Pentagone. Trump a ordonné aux agences fédérales de réduire progressivement leur utilisation des outils d'Anthropic sur une période de transition de six mois et a qualifié l'entreprise d'IA, valorisée à 380 milliards de dollars, de “société radicale de gauche et woke” dans un post sur les réseaux sociaux. Le Pentagone a ensuite décidé de déclarer Anthropic comme un “risque pour la chaîne d'approvisionnement”, une désignation généralement réservée aux adversaires étrangers, empêchant toute entreprise travaillant avec Anthropic de faire des affaires avec l'armée américaine. (Anthropic a depuis intenté une action en justice pour contester cette désignation.)
Le rival d'Anthropic, OpenAI, a alors annoncé qu'il avait conclu un accord permettant à ses propres modèles d'être déployés dans des situations classifiées. Cela a surpris la communauté technologique, car des rapports indiquaient qu'OpenAI respecterait les lignes rouges d'Anthropic concernant l'utilisation de l'IA pour l'armée.
L'impact d'OpenClaw
Février a été le mois d'OpenClaw, et son impact continue de se faire sentir. L'application d'assistant IA “vibe-coded” est devenue virale, a engendré de nombreuses entreprises dérivées, a connu des problèmes de confidentialité, puis a été acquise par OpenAI. Même l'une des entreprises bâties sur OpenClaw, un clone de Reddit pour agents IA appelé Moltbook, a récemment été acquise par Meta. Cet écosystème à thème crustacé a mis Silicon Valley dans un véritable émoi.
Créé par Peter Steinberger — qui a depuis rejoint OpenAI — OpenClaw est une interface pour des modèles d'IA comme Claude, ChatGPT, Gemini de Google ou Grok de xAI. Ce qui le distingue, c'est qu'il permet aux utilisateurs de communiquer avec des agents IA en langage naturel via les applications de chat les plus populaires, comme iMessage, Discord, Slack ou WhatsApp. Il existe également un marché public où les gens peuvent coder et télécharger des “compétences” pour leurs agents IA, rendant possible l'automatisation de pratiquement tout ce qui peut être fait sur un ordinateur.
Cependant, pour qu'un agent IA soit efficace en tant qu'assistant personnel, il doit avoir accès à votre email, vos numéros de carte de crédit, vos messages texte, vos fichiers informatiques, etc. En cas de piratage, beaucoup de choses pourraient mal tourner, et malheureusement, il n'existe pas de moyen de sécuriser complètement ces agents contre les attaques par injection de prompt.
“C'est juste un agent assis avec un tas de credentials sur une boîte connectée à tout — votre email, votre plateforme de messagerie, tout ce que vous utilisez,” a déclaré Ian Ahl, CTO chez Permiso Security. “Donc, ce que cela signifie, c'est que lorsque vous recevez un email, et que peut-être quelqu'un est capable d'y insérer une petite technique d'injection de prompt pour prendre une action, [et] cet agent assis sur votre boîte avec accès à tout ce que vous lui avez donné peut maintenant prendre cette action.”
Une chercheuse en sécurité IA chez Meta a déclaré qu'OpenClaw avait fait des ravages dans sa boîte de réception, supprimant tous ses emails malgré des appels répétés à l'arrêt. “J'ai dû COURIR vers mon Mac mini comme si je désamorçais une bombe” pour débrancher physiquement l'appareil, a-t-elle écrit dans un post devenu viral sur X, incluant des images des prompts d'arrêt ignorés comme preuves.
Malgré les risques de sécurité, la technologie a suffisamment intéressé OpenAI pour une acqui-hire.
D'autres outils construits sur OpenClaw, y compris Moltbook — un “réseau social” de type Reddit où les agents IA peuvent communiquer entre eux — sont devenus plus viraux qu'OpenClaw lui-même. Dans un cas, un post est devenu viral dans lequel un agent IA semblait encourager ses collègues agents à développer leur propre langage secret, chiffré de bout en bout, pour s'organiser sans que les humains ne le sachent.
Cependant, des chercheurs ont rapidement révélé que le Moltbook “vibe-coded” n'était pas très sécurisé, ce qui signifie qu'il était très facile pour des utilisateurs humains de se faire passer pour des IA pour publier des messages déclenchant une hystérie sociale virale.
Bien que la discussion autour de Moltbook soit plus ancrée dans la panique que dans la réalité, Meta a vu quelque chose dans l'application et a annoncé que Moltbook et ses créateurs, Matt Schlicht et Ben Parr, rejoindraient les Meta Superintelligence Labs.
Il semble étrange que Meta achète un réseau social où tous les utilisateurs sont des bots. Bien que Meta n'ait pas révélé grand-chose sur l'acquisition, nous théorisons que posséder Moltbook est davantage une question d'accès au talent derrière celui-ci, qui est enthousiaste à l'idée d'expérimenter avec des écosystèmes d'agents IA. Le PDG Mark Zuckerberg l'a lui-même dit : il pense qu'un jour, chaque entreprise aura une IA d'entreprise.
Pénuries de puces et demandes croissantes des centres de données
Les exigences sévères de l'industrie de l'IA — qui nécessitent une puissance de calcul et des centres de données en volumes sans précédent — atteignent un point où le consommateur moyen n'a d'autre choix que de prêter attention. Il se peut même qu'il ne soit pas possible pour l'industrie de satisfaire les demandes astronomiques de puces mémoire, et les consommateurs constatent déjà l'augmentation des prix de leurs téléphones, ordinateurs portables, voitures et autres matériels.
Jusqu'à présent, les analystes d'IDC et de Counterpoint ont prédit que les expéditions de smartphones, par exemple, chuteraient d'environ 12% à 13% cette année ; Apple a déjà augmenté les prix des MacBook Pro de jusqu'à 400 dollars.
Google, Amazon, Meta et Microsoft prévoient de dépenser jusqu'à 650 milliards de dollars pour les centres de données cette année, ce qui représente une augmentation estimée de 60% par rapport à l'année dernière.
Si la pénurie de puces ne vous touche pas financièrement, elle pourrait affecter votre communauté dans son ensemble. Rien qu'aux États-Unis, près de 3 000 nouveaux centres de données sont en construction, s'ajoutant aux 4 000 déjà en activité dans le pays. Le besoin de travailleurs pour construire ces centres de données est suffisamment important pour que des “man camps” aient vu le jour au Nevada et au Texas, tentant d'attirer des travailleurs avec la promesse de salles de jeux de simulateurs de golf et de steaks grillés à la demande.
Non seulement la construction de centres de données a un impact à long terme sur l'environnement, mais elle crée également des dangers pour la santé des résidents à proximité, polluant l'air et impactant la sécurité des sources d'eau environnantes.
Pendant ce temps, l'un des développeurs de matériel et de puces les plus précieux, Nvidia, redéfinit sa relation avec des entreprises d'IA de premier plan comme OpenAI et Anthropic. Nvidia a été un soutien continu de ces entreprises, suscitant des inquiétudes concernant la circularité de l'industrie de l'IA et la mesure dans laquelle ces évaluations impressionnantes sont basées sur des accords réciproques. L'année dernière, par exemple, Nvidia a investi 100 milliards de dollars dans des actions d'OpenAI, et OpenAI a ensuite déclaré qu'il achèterait 100 milliards de dollars de puces Nvidia.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.