Comparer différents modèles, mesurer les coûts, et expérimenter la multimodalité.
Prompt de référence :
Analyse le fichier src/api/routes/users.py et propose 3 façons
d'améliorer la gestion des erreurs. Pour chaque proposition,
donne le code modifié et explique les avantages.
Garder ce prompt identique pour tous les modèles.
Configurer Gemini Flash :
#~/.config/opencode/config.yaml
default_model: google/gemini-2.0-flash
Exécuter le prompt et noter :
default_model: deepseek/deepseek-chat
Même prompt, mêmes mesures.
default_model: anthropic/claude-3.5-sonnet
Même prompt, mêmes mesures.
Tableau à remplir :
| Modèle | Temps | Qualité | Tokens In | Tokens Out | Coût |
|---|---|---|---|---|---|
| Gemini Flash | ? | ? | ? | ? | ? |
| DeepSeek | ? | ? | ? | ? | ? |
| Claude Haiku | ? | ? | ? | ? | ? |
| Claude Sonnet | ? | ? | ? | ? | ? |
| GPT-4o | ? | ? | ? | ? | ? |
Question : Quel est le meilleur rapport qualité/prix ?
Prendre un screenshot d’une erreur dans votre app :
# Si l'app tourne localement
# Capturer un screenshot de l'erreur avec un outil de screenshot
Prompt multimodal :
Voici un screenshot d'erreur dans mon application.
Analyse le problème et propose une solution.
[Image attachée]
Utiliser le snapshot textuel :
# Avec OpenCode configuré avec Playwright MCP
opencode
>Lance l'app localement avec playwright et prends un snapshot
>de la page d'accueil. Analyse la structure.
Observer :
Trouver un mockup simple (ou en créer un) :
Voici le design de la page de profil.
Génère le HTML/CSS correspondant.
[Image du mockup]
Comparer :
Exécuter ce prompt :
Je veux améliorer mon code mais je sais pas trop quoi faire
en fait j'ai des bugs et des problèmes de perf peux-tu m'aider
à tout régler s'il te plaît merci.
Noter les tokens consommés.
Exécuter ce prompt :
Contexte: API FastAPI avec endpoint GET /users
Problème: Temps de réponse > 2s pour 100 utilisateurs
Fichier concerné: src/api/routes/users.py
Objectif: Optimiser pour < 500ms
Contraindre:
- Garder la même signature
- Ne pas ajouter de dépendances
- Documenter les changements
Comparer les tokens consommés.
| Prompt | Tokens | Coût |
|---|---|---|
| Mal structuré | ? | ? |
| Bien structuré | ? | ? |
| Économie | ? | ? |
Proposer un routage intelligent :
# Noter votre stratégie
brainstorming:
model: ??? # Votre choix
raison: ???
code_simple:
model: ???
raison: ???
architecturedécision:
model: ???
raison: ???
review_final:
model: ???
raison: ???
À la fin de ce TP :
Pattern retenu : Frugal par défaut, premium pour les décisions critiques.
Question clé : Quel modèle utilisez-vous le plus pour le travail quotidien ?
Jour 2 - Module 7 : Ralph Loop et workflows autonomes.