Investir dans OpenAI, Anthropic... et développer ses propres IA ? Le patron d'AWS explique son triple-jeu
Investir dans OpenAI, Anthropic... et développer ses propres IA ?
Amazon injecte des dizaines de milliards dans deux rivaux de l'IA tout en construisant ses propres modèles. Conflit d'intérêts ? Non, répond le patron d'AWS.
La stratégie d'AWS
Matt Garman, patron d'AWS, a défendu cette semaine la position inédite de son entreprise lors de la conférence HumanX à San Francisco. Amazon a investi 50 milliards de dollars dans OpenAI en février. Le groupe avait déjà misé 8 milliards sur Anthropic.
Garman ne s'en cache pas : AWS a toujours fonctionné en finançant des partenaires qu'il concurrence ensuite. Par exemple :
- Oracle vend ses bases de données sur AWS.
- Netflix tourne sur ses serveurs tout en bâtissant sa propre infrastructure de diffusion.
Le modèle n'est pas nouveau, mais ce qui change, c'est l'échelle.
Derrière les investissements croisés, AWS construit un service de « model-routing ». Le principe est d'aiguiller automatiquement les requêtes des clients vers le modèle le plus adapté à chaque tâche :
- Claude pour le raisonnement,
- GPT pour la planification,
- un modèle moins cher pour la complétion de code.
Garman estime que ce fonctionnement multi-modèle deviendra la norme. AWS se positionne comme le distributeur central, pas comme le fournisseur d'un modèle unique.
Une logique de péage
La logique ressemble à celle de l'App Store. Apple ne fabrique pas toutes les applications, mais prélève sa commission sur chacune. AWS veut être le péage de l'intelligence artificielle.
Avant l'accord de février, les modèles d'OpenAI et d'Anthropic étaient tous deux disponibles chez Microsoft Azure, principal rival d'AWS. Ne pas sécuriser OpenAI revenait à céder le terrain enterprise à Redmond.
Autosuffisance et développement interne
Le troisième étage de la fusée reste le moins visible. Amazon développe ses puces Trainium, conçues pour réduire sa dépendance à NVIDIA. OpenAI s'est engagé à déployer 2 gigawatts de capacité Trainium dans le cadre de l'accord. Anthropic utilise déjà massivement ces puces pour entraîner ses modèles. Chaque dollar investi dans un concurrent revient en partie sous forme de commandes de silicium maison.
En parallèle, Amazon pousse ses propres modèles Nova, lancés fin 2024 via Bedrock. Moins médiatisés que Claude ou GPT, ils occupent la tranche économique du catalogue. Le routage de modèles d'AWS permet de les glisser discrètement dans les flux de travail des clients, entre deux requêtes adressées à des modèles tiers. À terme, chaque entreprise utilisant Bedrock pourrait consommer du Nova sans l'avoir explicitement choisi.
Un phénomène en cours
Ce phénomène n'est pas théorique. Lors de la ronde Anthropic de février, au moins une douzaine d'investisseurs d'OpenAI ont aussi signé. Microsoft elle-même a participé avant d'annoncer l'arrivée de Claude dans ses produits. Les frontières entre partenaires, concurrents et clients s'effacent à mesure que les montants explosent.
Pour les entreprises européennes, la question dépasse la curiosité stratégique. Bouygues utilise déjà Claude via Amazon Bedrock pour l'analyse de contrats chez sa filiale Equans. TF1+ tourne sur AWS. Quand le distributeur possède aussi ses propres modèles et ses propres puces, la neutralité promise a un coût de confiance que chaque client devra évaluer.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.