LangChain Deep Agents : le framework open source pour construire des agents IA autonomes en production
Les agents IA « superficiels » (un LLM avec quelques outils) atteignent vite leurs limites sur les tâches complexes : perte de contexte, absence de planification, incapacité à coordonner des sous-tâches. LangChain a conçu Deep Agents pour résoudre ces problèmes avec une approche d'architecture qu'ils appellent « agent harness », un niveau d'abstraction au-dessus du framework classique.
Le projet, lancé en juillet 2025 par Harrison Chase, a connu une croissance virale : 9,9k étoiles GitHub en 5 heures lors de la mise à jour majeure de mars 2026. Plus qu'un buzz, c'est un signal que la communauté développeur cherche activement des solutions structurées pour passer des prototypes aux agents de production.
Cet article décortique l'architecture technique, compare Deep Agents aux alternatives (CrewAI, AutoGen, Swarm), et propose un guide pratique pour intégrer ce framework dans vos projets d'agence ou vos produits SaaS.
Architecture technique : harness, runtime et framework
Avant de plonger dans Deep Agents, il est essentiel de comprendre comment LangChain structure ses couches d'abstraction. Chaque couche a un rôle distinct :

Couche | Produit | Rôle |
|---|---|---|
Agent Runtime | LangGraph | Orchestration bas niveau, workflows stateful, human-in-the-loop |
Agent Framework | LangChain | Boucle d'appels d'outils sans primitives intégrées |
Agent Harness | Deep Agents | Batteries incluses : planification, filesystem, sous-agents, prompt structuré |
Deep Agents est construit sur LangChain, lui-même construit sur LangGraph. Ces couches sont compositionnelles, pas des alternatives. Un create_deep_agent() retourne un graphe LangGraph standard, ce qui signifie que vous conservez l'accès complet au streaming, checkpointing, persistance et à LangSmith Studio.
« LangGraph est idéal pour combiner workflows et agents. LangChain convient si vous voulez la boucle agent de base sans rien d'intégré. Deep Agents est fait pour les agents plus autonomes et à longue durée de vie. » Blog officiel LangChain
Les 4 primitives de Deep Agents : analyse technique
L'insight fondamental de Deep Agents est que les applications comme Claude Code, Deep Research et Manus partagent quatre caractéristiques communes. Harrison Chase les a identifiées par rétro-ingénierie :
Primitive 1 : le prompt système structuré
Le prompt système de Deep Agents est directement inspiré de celui de Claude Code. Il contient des instructions détaillées d'utilisation des outils, des few-shot examples, et des règles de comportement. Ce n'est pas un simple « You are a helpful assistant » : c'est un document d'ingénierie de contexte qui conditionne la qualité de toute la chaîne.
En pratique, le system_prompt passé à create_deep_agent() est injecté dans un prompt système plus large, déjà optimisé. Vous ajoutez vos instructions spécifiques au domaine, le harness gère le reste.
Primitive 2 : la planification (TodoListMiddleware)
Le middleware TodoListMiddleware expose un outil write_todos à l'agent. Techniquement, cet outil est un no-op : il n'a aucun effet de bord. Mais il force le LLM à décomposer son plan en étapes explicites dans le contexte, ce qui améliore drastiquement la cohérence sur les tâches longues.
C'est une stratégie de context engineering pure. L'agent écrit sa todo list, la consulte à chaque étape, et l'adapte en fonction des résultats. Sur des trajectoires de 50 à 100 appels d'outils, cette primitive fait la différence entre un agent qui dérive et un agent qui reste sur les rails.
Primitive 3 : les sous-agents (SubAgentMiddleware)
Le SubAgentMiddleware expose un outil task qui permet à l'agent principal de déléguer à des sous-agents isolés. L'isolation du contexte est le point clé : les 20+ appels d'outils du sous-agent ne saturent pas la fenêtre de contexte de l'agent principal.
Trois modes d'utilisation :
Sous-agent générique : même outils, même prompt, même modèle que le parent. Utile pour isoler le contexte sans spécialisation.
Sous-agent spécialisé : prompt dédié, outils spécifiques, modèle éventuellement différent (ex: un modèle moins cher pour les sous-tâches simples).
CompiledSubAgent : un graphe LangGraph pré-compilé utilisé directement comme sous-agent.
Voici un exemple de définition :
research_subagent = {
"name": "research-agent",
"description": "Used to research more in depth questions",
"system_prompt": "You are a great researcher",
"tools": [internet_search],
"model": "openai:gpt-4o", # Override du modèle
}
agent = create_deep_agent(subagents=[research_subagent])
Primitive 4 : le filesystem (FilesystemMiddleware)
Le FilesystemMiddleware ajoute quatre outils : ls, read_file, write_file, edit_file. Les agents utilisent le filesystem comme un bloc-notes structuré pour :
Décharger les résultats volumineux (ex: 60 000 tokens de résultats de recherche) au lieu de saturer le contexte
Écrire des plans qu'ils peuvent relire pour rester cohérents sur des centaines d'étapes
Partager des résultats entre sous-agents via le filesystem plutôt que par l'historique de messages
Depuis la v0.2, les backends de filesystem sont modulaires :
Backend | Description |
|---|---|
StateBackend (défaut) | Stockage dans l'état LangGraph (transitoire, par thread) |
LangGraph Store | Persistance inter-threads |
Local filesystem | Disque réel ( |
Modal, Daytona, Deno | Environnements sandboxés d'exécution de code |
Custom / Composite | Implémentez vos propres backends, combinez-les par routage de répertoire |
Quickstart développeur : votre premier Deep Agent
Installation
# pip
pip install deepagents
# uv (recommandé)
uv add deepagents
# CLI (agent terminal, comparable à Claude Code)
uv tool install deepagents-cli
Agent de recherche avec Tavily
Voici un exemple plus réaliste, un agent de recherche complet avec accès web :
import os
from typing import Literal
from tavily import TavilyClient
from deepagents import create_deep_agent
tavily_client = TavilyClient(api_key=os.environ["TAVILY_API_KEY"])
def internet_search(query: str, max_results: int = 5,
topic: Literal["general", "news", "finance"] = "general",
include_raw_content: bool = False):
"""Run a web search"""
return tavily_client.search(query, max_results=max_results,
include_raw_content=include_raw_content, topic=topic)
research_instructions = """You are an expert researcher.
Your job is to conduct thorough research, and then write a polished report."""
agent = create_deep_agent(
tools=[internet_search],
system_prompt=research_instructions,
)
result = agent.invoke(
{"messages": [{"role": "user", "content": "What is langgraph?"}]}
)
Configuration HITL (Human-in-the-Loop)
Pour les outils sensibles, Deep Agents permet de configurer une approbation humaine :
agent = create_deep_agent(
tools=[sensitive_tool],
interrupt_on={
"sensitive_tool": {
"allowed_decisions": ["approve", "edit", "reject"]
},
}
)
Support MCP (Model Context Protocol)
Deep Agents est compatible MCP via langchain-mcp-adapters :
from langchain_mcp_adapters.client import MultiServerMCPClient
mcp_tools = await mcp_client.get_tools()
agent = create_deep_agent(tools=mcp_tools)
Comparaison technique : Deep Agents vs CrewAI vs AutoGen vs Swarm
Le choix du bon framework d'agents IA dépend de votre cas d'usage, de votre niveau d'expertise, et de vos contraintes de production. Voici une comparaison détaillée :
Critère | Deep Agents | CrewAI | AutoGen (Microsoft) | Swarm (OpenAI) |
|---|---|---|---|---|
Paradigme | Harness (boucle outil + primitives intégrées) | Agents par rôle (crews) | Multi-agent conversationnel | Coordination multi-agent légère |
Abstraction | Basse à moyenne (middleware composable) | Haute (rôles prédéfinis) | Moyenne | Basse |
Planification | Native (write_todos) | Manuelle | Manuelle | Aucune |
Gestion du contexte | Native (filesystem, compression, éviction) | Limitée | Manuelle | Aucune |
Backends filesystem | Modulaires (State, Store, local, Modal, Daytona) | Non | Non | Non |
Sous-agents | Isolement du contexte natif | Agents par rôle | Agents conversationnels | Handoffs |
Modèles supportés | Tout modèle LangChain | LangChain | Flexible | OpenAI uniquement |
Observabilité | LangSmith natif (tracing, evals, Studio) | Limitée | Écosystème Microsoft | Aucune |
HITL | Natif (interrupt_on) | Callback | Via config | Non |
MCP | Oui (langchain-mcp-adapters) | Non natif | Non natif | Non |
Tâches longues | Cas d'usage principal | Workflows courts | Conversations multi-tours | Tâches simples |
Licence | MIT | Apache 2.0 | MIT | MIT |
Production | LangGraph runtime, NVIDIA partnership | Moins éprouvé | En maturation | Expérimental |
Quand choisir quel framework ?
Deep Agents : agents autonomes à longue durée de vie, recherche approfondie, agents de production nécessitant observabilité (LangSmith) et flexibilité de modèle.
CrewAI : prototypage rapide de workflows multi-agents simples, équipes non techniques, cas d'usage avec des rôles bien définis.
AutoGen : intégration dans l'écosystème Microsoft (Azure, Teams, M365), équipes déjà sur Azure OpenAI.
Swarm : apprentissage et expérimentation uniquement. Non conçu pour la production.
Intégration LangSmith : observabilité et évaluation
L'un des avantages compétitifs majeurs de Deep Agents est son intégration native avec LangSmith. Pour les agences et les équipes produit, l'observabilité est souvent le facteur décisif pour passer en production.
Tracing
Une seule variable d'environnement (LANGCHAIN_API_KEY) active le tracing complet de toutes les opérations de l'agent : appels de modèle, appels d'outils, décisions de l'agent, latence, consommation de tokens.
Debugging avec Polly
LangSmith intègre un assistant IA (Polly) pour analyser le comportement de l'agent et améliorer les prompts. LangSmith Fetch permet également d'exposer les traces aux agents de codage pour un debugging automatisé.
Évaluation (Evals)
LangSmith supporte trois niveaux d'évaluation pour les Deep Agents :
Single-step evals : tests unitaires sur des points de décision individuels
Full agent turn evals : évaluation de la trajectoire complète, de l'état final et des artefacts produits
Multi-turn evals : simulation d'interactions utilisateur sur plusieurs tours
LangSmith a traité plus de 15 milliards de traces et 100 000 milliards de tokens, ce qui en fait la plateforme d'observabilité la plus éprouvée de l'écosystème agent.
Le partenariat NVIDIA AI-Q : vers le déploiement enterprise
Le partenariat LangChain-NVIDIA, annoncé en mars 2026, représente une étape importante pour Deep Agents en production enterprise. Le blueprint AI-Q est un système de recherche d'entreprise construit sur Deep Agents qui se classe numéro 1 sur les benchmarks de deep research.
NVIDIA apporte des stratégies d'exécution optimisées (parallèle et spéculative) pour les workflows LangGraph, tandis que LangChain fournit le harness et l'observabilité. Pour les agences qui déploient des agents pour leurs clients, ce partenariat valide la viabilité enterprise du framework.
Pour mémoire : l'écosystème LangChain totalise plus d'un milliard de téléchargements, un million de praticiens, et LangSmith compte plus de 300 clients enterprise.
Cas d'usage développeur et agence
Agents de recherche approfondie
Le cas d'usage phare. Un agent qui planifie ses recherches, délègue à des sous-agents spécialisés, stocke les résultats intermédiaires dans le filesystem, et produit un rapport structuré. Le blueprint AI-Q de NVIDIA est un exemple de production.
Agents de codage (CLI)
Le Deep Agents CLI est un agent terminal open source comparable à Claude Code, mais agnostique en termes de modèle. Il lit et écrit du code, exécute des commandes shell (avec approbation HITL), recherche sur le web, et conserve une mémoire persistante entre les sessions.
Agents planifiés (cron)
Le mode non interactif (-n) du CLI permet d'exécuter des agents en mode headless, idéal pour des tâches planifiées : monitoring, rapports automatisés, mises à jour de données. Les agents peuvent aussi recevoir du feedback humain entre les exécutions.
Support client multi-niveaux
Architecture avec un agent principal de triage et des sous-agents spécialisés (FAQ, technique, escalade). Chaque sous-agent a ses propres outils et son propre prompt, avec isolation de contexte pour éviter les interférences.
Intégration frontend (CopilotKit)
Pour les agences qui construisent des produits avec une interface utilisateur, Deep Agents s'intègre avec CopilotKit pour créer des frontends React connectés aux agents. Le repo deep-agents-ui (955 étoiles) fournit également une interface Next.js prête à l'emploi.
Limites et considérations techniques
Pas adapté aux tâches simples. Si votre cas d'usage se résume à un chatbot Q&A, Deep Agents ajoute de la complexité inutile. Utilisez LangChain ou un simple appel API.
Coût des tokens élevé. La planification, les sous-agents et le filesystem augmentent la consommation de tokens. Prévoyez un budget conséquent pour les agents de production à longue durée de vie.
Dépendance à l'écosystème LangChain. Deep Agents est intimement lié à LangChain et LangGraph. Si vous quittez cet écosystème, la migration sera coûteuse.
Écosystème TypeScript en retard. DeepAgentJS a connu des périodes d'incertitude, bien qu'une refonte soit en cours avec la primitive
createAgent.Maturité du projet. Lancé en juillet 2025, le framework est encore jeune. La v0.2 (octobre 2025) a apporté des améliorations critiques, mais certaines fonctionnalités (skills, mémoire long terme) sont encore en évolution.
Réception communautaire contrastée. Sur Hacker News, une partie de la communauté estime que le framework n'introduit rien de fondamentalement nouveau et reproche à LangChain de complexifier des concepts simples pour vendre LangSmith. D'autres saluent la qualité de l'ingénierie de contexte et l'utilité de l'abstraction.
Conclusion : Deep Agents dans votre stack technique
Deep Agents comble un manque réel dans l'écosystème des agents IA : la couche entre le framework générique (LangChain) et l'implémentation sur mesure. Pour les développeurs et les agences qui construisent des agents de production, il offre un raccourci structuré vers les patterns qui fonctionnent (planification, isolation de contexte, mémoire persistante).
Le support de n'importe quel modèle LangChain, l'intégration native LangSmith, le partenariat NVIDIA, et la licence MIT en font un choix solide pour des projets enterprise. Si vous évaluez des frameworks d'agents pour un nouveau projet, Deep Agents mérite une place sur votre shortlist, surtout si vos agents doivent gérer des tâches longues, multi-étapes et autonomes.
Envie d’automatiser ?
Audit gratuit de 30 min. On identifie vos 3 quick wins IA.
Réserver un audit gratuit →


