11 - Veille et Écosystème

Rester à jour dans un écosystème en mouvement


Le rythme effréné

L’écosystème IA évolue très vite :

Période Changements majeurs
2022 ChatGPT launch
2023 GPT-4, Claude 1, open source explosion
2024 Claude 3, Gemini, Sora, multimodal
2025 Claude 3.5 Sonnet, reasoning models, agents
2026 Context windows 1M+, autonomous agents

Résultat : Ce qui était impossible hier est standard aujourd’hui.


Perspectives critiques

Closed-source : enshittification sans préavis

Les modèles closed-source peuvent se dégrader silencieusement entre deux versions — sans changelog, sans notification. Un modèle qui était bon à l’implémentation peut devenir médiocre sur vos cas d’usage sans que vous le sachiez.

Ex: https://github.com/besimple-oss/broccoli

AI Fluency Index

Selon l'AI Fluency Index d’Anthropic, le mode génération d’artefacts (code, documents) crée un effet wow qui réduit l’esprit critique.

Le modèle de chat back-and-forth préserve davantage l’esprit critique.


Les sources de veille

Agrégateurs et newsletters

Source Fréquence Focus
Hacker News Quotidien Technique, discussions
Lobste.rs Quotidien Technique, moins de bruit

Lobste.rs - Communauté technique

  • Signal/bruit meilleur que HN
  • Communauté plus restreinte, plus technique
  • Tags : llm, machine-learning, ai

Pour une veille avancée : LocalLLM

r/LocalLLm (Reddit) - La référence pour les modèles locaux :

  • Benchmarks en temps réel
  • Quantisation, fine-tuning, local inference
  • Nouveaux modèles open source (Llama, Mistral, Qwen, etc.)
  • Hardware optimisation

Quand l’utiliser :

  • Vous voulez self-host vos modèles
  • Intérêt pour les détails techniques (GGUF, quantisation)
  • Tests de performance avant déploiement

Les Providers et leurs produits


Tendances à surveiller

  1. Context windows : 200k → 1M+ tokens
  2. Prix
  3. Multimodal image ou non

Modèles frugaux en 2026

La guerre des prix

Modèle Coût/1M input
Gemini Flash $0.07
MiniMax
NanoFlash
GLM 4.7

=> Routage intelligent selon la tâche.


Les MCP essentiels

MCP Usage
filesystem Accès fichiers
postgres Requêtes DB
github Issues, PRs
playwright Browser automation
slack Messages

DeepWiki : Documentation structurée

DeepWiki transforme n’importe quel repo GitHub en documentation navigable :

Repo GitHub → DeepWiki → Markdown structuré

Usage :

  • Comprendre un projet open source rapidement
  • Chercher des patterns dans une codebase
  • Ancrer un agent dans la documentation d’un projet

Exemple :

# DeepWiki pour Next.js
deepwiki fetch "vercel/next.js"
# Retourne un markdown structuré avec:
# - Architecture
# - API publique
# - Patterns utilisés

Dans le workflow IA :

# L'agent utilise DeepWiki pour:
deepwiki_fetch:
  url: "betagouv/comparia"  # ComparIA repo
  # L'agent comprend le projet sans lire tout le code

Quand l’utiliser :

  • Découvrir un projet open source
  • Préparer un TP sur une techno inconnue (Rust, Elixir, etc.)
  • Documenter les decisions d’architecture

Annexe : Liens de veille à connaître

Outils de monitoring et d’inspection

  • claude-devtools — Les DevTools manquants pour Claude Code : inspecter les sessions, tool calls, usage de tokens, sous-agents et fenêtre de contexte en UI visuelle.
  • codeburn — Visualise où vont vos tokens session par session (par type de tool call, fichiers lus, etc.). Utile pour identifier ce qui consomme inutilement.
  • rtk — Proxy CLI qui réduit la consommation de tokens de 60-90% sur les commandes dev courantes.

Lectures importantes

Répertoires de ressources