Brief IA

llm-echo 0.4

💻 Code & Devvia Simon Willison·

llm-echo 0.4

llm-echo 0.4
En bref
1La version 0.4 de llm-echo a été publiée avec des améliorations dans la gestion des prompts.
2Les champs <code>input_tokens</code> et <code>output_tokens</code> sont désormais renseignés dans les réponses.
3Cette mise à jour améliore la transparence et l'analyse des performances des modèles de langage.
💡Pourquoi c'est importantcette fonctionnalité permet une meilleure évaluation de l'efficacité des prompts dans les applications d'IA.
📄
Article traduit en français

llm-echo 0.4

Debug plugin pour LLM fournissant un modèle d'écho.

Les champs input_tokens et output_tokens des prompts sont désormais renseignés dans la réponse.

Annonces récentes

  • Mr. Chatterbox est un modèle éthique (faible) de l'ère victorienne que vous pouvez exécuter sur votre propre ordinateur - 30 mars 2026

  • Le codage d'applications SwiftUI est très amusant - 27 mars 2026

  • Expérimentation avec Starlette 1.0 et les compétences de Claude - 22 mars 2026

Ceci est un extrait de Simon Willison, publié le 31 mars 2026.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.