💻 Code & Devvia Simon Willison·
llm-echo 0.4
⚡
En bref1La version 0.4 de llm-echo a été publiée avec des améliorations dans la gestion des prompts.
2Les champs <code>input_tokens</code> et <code>output_tokens</code> sont désormais renseignés dans les réponses.
3Cette mise à jour améliore la transparence et l'analyse des performances des modèles de langage.
💡Pourquoi c'est important — cette fonctionnalité permet une meilleure évaluation de l'efficacité des prompts dans les applications d'IA.
📄
Article traduit en françaisllm-echo 0.4
Debug plugin pour LLM fournissant un modèle d'écho.
Les champs input_tokens et output_tokens des prompts sont désormais renseignés dans la réponse.
Annonces récentes
-
Mr. Chatterbox est un modèle éthique (faible) de l'ère victorienne que vous pouvez exécuter sur votre propre ordinateur - 30 mars 2026
-
Le codage d'applications SwiftUI est très amusant - 27 mars 2026
-
Expérimentation avec Starlette 1.0 et les compétences de Claude - 22 mars 2026
Ceci est un extrait de Simon Willison, publié le 31 mars 2026.
⚡
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.