Brief IA

Anthropic supprime la surcharge pour les fenêtres de contexte d'un million de tokens, rendant Opus 4.6 et Sonnet 4.6 beaucoup moins chers

🤖 Modèles & LLMvia The Decoder·Matthias Bastian·

Anthropic supprime la surcharge pour les fenêtres de contexte d'un million de tokens, rendant Opus 4.6 et Sonnet 4.6 beaucoup moins chers

Anthropic supprime la surcharge pour les fenêtres de contexte d'un million de tokens, rendant Opus 4.6 et Sonnet 4.6 beaucoup moins chers

⚡ Résumé en français par Brief IA

• Anthropic a éliminé la surcharge pour les contextes longs dans Claude Opus 4.6 et Sonnet 4.6. • Les requêtes dépassant 200 000 tokens ne coûtent plus jusqu'à deux fois plus cher. • Cette décision rend l'accès aux modèles d'IA plus abordable pour les utilisateurs ayant des besoins de traitement de données étendus. 💡 Pourquoi c'est important : Cela pourrait transformer le paysage des modèles d'IA en rendant les solutions plus accessibles et économiques pour les entreprises.

📄 Article traduit en français

Anthropic supprime la surcharge pour les fenêtres de contexte d'un million de tokens

Anthropic rend la fenêtre de contexte extra-large de Claude beaucoup moins chère. Les modèles Opus 4.6 et Sonnet 4.6 offrent désormais une fenêtre de contexte d'un million de tokens au prix standard. Jusqu'à présent, Anthropic appliquait une surcharge allant jusqu'à 100 % pour les demandes dépassant 200 000 tokens. La fenêtre de contexte détermine la quantité de texte qu'un modèle d'IA peut traiter en une seule demande.

Opus 4.6 coûte toujours 5 $/25 $ par million de tokens (entrée/sortie), tandis que Sonnet 4.6 est à 3 $/15 $. Cependant, que le prompt contienne 9 000 ou 900 000 tokens n'a plus d'importance pour la tarification. De plus, la limite de médias passe de 100 à 600 images ou pages PDF par demande. La nouvelle tarification s'applique à Claude Code (Max, Team et Enterprise) et est disponible via Amazon Bedrock (sauf pour la limite de médias), Google Cloud Vertex AI et Microsoft Foundry.

Le benchmark GraphWalks BFS mesure la capacité des modèles d'IA à gérer le raisonnement logique sur de grandes quantités de texte. Opus 4.6 montre apparemment presque aucune baisse de performance même à pleine longueur de contexte.

Selon Anthropic, les deux modèles atteignent la plus haute précision parmi les modèles comparables à pleine longueur de contexte lors des tests de référence. Cela dit, le problème plus large de la précision décroissante à mesure que les fenêtres de contexte se remplissent est encore loin d'être résolu.

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.