llm-echo 0.4
💻 Code & Dev

llm-echo 0.4

Simon Willison
·1 min·0 vues
En bref
1La version 0.4 de llm-echo a été publiée avec des améliorations dans la gestion des prompts.
2Les champs <code>input_tokens</code> et <code>output_tokens</code> sont désormais renseignés dans les réponses.
3Cette mise à jour améliore la transparence et l'analyse des performances des modèles de langage.
💡Pourquoi c'est importantcette fonctionnalité permet une meilleure évaluation de l'efficacité des prompts dans les applications d'IA.
📄
Article traduit en français

llm-echo 0.4

Debug plugin pour LLM fournissant un modèle d'écho.

Les champs input_tokens et output_tokens des prompts sont désormais renseignés dans la réponse.

Annonces récentes

  • Mr. Chatterbox est un modèle éthique (faible) de l'ère victorienne que vous pouvez exécuter sur votre propre ordinateur - 30 mars 2026

  • Le codage d'applications SwiftUI est très amusant - 27 mars 2026

  • Expérimentation avec Starlette 1.0 et les compétences de Claude - 22 mars 2026

Ceci est un extrait de Simon Willison, publié le 31 mars 2026.

Lire l'article original sur Simon Willison

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires