12 - Veille et Écosystème

Le rythme effréné

L’écosystème IA évolue très vite :

Evolution des outils :

  • Emergence d’outils asynchrones comme Jules de Google
  • De plus en plus d’outils conscients des problématiques design
  • Une optimisation des coûts et de l’alternance réflexion / exécution
  • Des budgets par rapport à des objectifs

Perspectives critiques

Closed-source : enshittification sans préavis

Les modèles closed-source peuvent se dégrader silencieusement entre deux versions — sans changelog, sans notification. Un modèle qui était bon à l’implémentation peut devenir médiocre sur vos cas d’usage sans que vous le sachiez.

AI Fluency Index

Selon l'AI Fluency Index d’Anthropic, le mode génération d’artefacts (code, documents) crée un effet wow qui réduit l’esprit critique.

Le modèle de chat back-and-forth préserve davantage l’esprit critique.


Les sources de veille

Agrégateurs et newsletters

Source Fréquence Focus
Hacker News Quotidien Technique, discussions
Lobste.rs Quotidien Technique, moins de bruit

Lobste.rs - Communauté technique

  • Signal/bruit meilleur que HN
  • Communauté plus restreinte, plus technique
  • Tags : llm, machine-learning, ai

Pour une veille avancée : LocalLLM

r/LocalLLm (Reddit) - La référence pour les modèles locaux :

  • Benchmarks en temps réel
  • Quantisation, fine-tuning, local inference
  • Nouveaux modèles open source (Llama, Mistral, Qwen, etc.)
  • Hardware optimisation

Quand l’utiliser :

  • Vous voulez self-host vos modèles
  • Intérêt pour les détails techniques (GGUF, quantisation)
  • Tests de performance avant déploiement

Les Providers et leurs produits

Tendances à surveiller

  1. Context windows : 200k → 1M+ tokens
  2. Prix
  3. Multimodal image ou non

Modèles frugaux en 2026

La guerre des prix

Modèle Coût/1M input tokens Notes
Gemini Flash 3 Preview $0.50 Quota gratuit généreux
GLM-4.7 ~$0.38 Via OpenRouter
gpt-4o-mini $0.15 Rapide, cohérent
Claude Sonnet $3.00 Le sweet spot qualité

Routage intelligent selon la tâche : Haiku/Flash pour exploration et questions rapides, Sonnet pour implémentation, Opus ou extended thinking pour les cas durs.


Les MCP essentiels

MCP Usage
filesystem Accès fichiers
postgres Requêtes DB
github Issues, PRs
playwright Browser automation
slack Messages

Parsing documentaire local

Quand vous avez des PDF de référence (OWASP, RGAA, guides internes) :

Outil Usage Installation
markdownit PDF/Word/Excel/Powerpoint → texte brut, rapide uvx markitdown
pdftotext PDF → texte brut, rapide apt install poppler-utils
pandoc PDF/Word/Excel → markdown apt install pandoc
ripgrep Chercher dans le markdown extrait apt install ripgrep
Docling (IBM) PDF complexes avec tableaux/images pip install docling

Le pattern : pdftotext doc.pdf doc.mdrg "mot-clé" doc.md -A 15 → contexte donné à l’agent. Ça fonctionne offline, sans serveur, en une ligne de shell. Pour des corpus > 500 pages, regarder Qdrant pour du RAG vectoriel.


Annexe : Liens de veille à connaître

Outils de monitoring et d’inspection

  • claude-devtools — Les DevTools manquants pour Claude Code : inspecter les sessions, tool calls, usage de tokens, sous-agents et fenêtre de contexte en UI visuelle.
  • codeburn — Visualise où vont vos tokens session par session (par type de tool call, fichiers lus, etc.). Utile pour identifier ce qui consomme inutilement.
  • rtk — Proxy CLI qui réduit la consommation de tokens de 60-90% sur les commandes dev courantes.

Lectures

Répertoires de ressources