Chez Bridgers, nous concevons et déployons des solutions IA pour nos clients : agents conversationnels, pipelines d'extraction de données, automatisation métier alimentée par des LLMs. Chaque projet nous confronte au même défi : assembler un patchwork d'outils (gateway, observabilité, évaluation, optimisation) qui communiquent mal entre eux. Quand nous avons découvert TensorZero, un stack open source qui prétend unifier tout cela dans un seul composant écrit en Rust, nous avons immédiatement voulu l'évaluer. Voici notre analyse détaillée, du point de vue d'une agence qui construit des produits IA au quotidien.
Un stack LLMOps open source : de quoi parle-t-on exactement ?
Avant de plonger dans TensorZero, clarifions le problème qu'il résout. Lorsque vous passez d'un prototype LLM à un produit en production, vous devez gérer cinq chantiers simultanément :
Le gateway : une couche qui route vos appels vers différents fournisseurs LLM (OpenAI, Anthropic, Mistral, etc.), gère les retries, les fallbacks et le load balancing
L'observabilité : l'enregistrement et l'analyse de chaque inférence, pour comprendre ce qui fonctionne et ce qui échoue
L'optimisation : le fine-tuning de modèles, l'optimisation de prompts, les techniques d'inférence avancées
L'évaluation : des tests systématiques pour mesurer la qualité des sorties LLM
L'expérimentation : des tests A/B rigoureux pour valider chaque changement avant déploiement complet
La plupart des équipes utilisent un outil différent pour chaque besoin : LiteLLM pour le gateway, Langfuse pour l'observabilité, des scripts maison pour l'évaluation, et souvent rien pour l'optimisation et l'expérimentation. TensorZero unifie les cinq dans un seul stack sous licence Apache 2.0, sans aucune fonctionnalité payante.
Qui se cache derrière TensorZero ?
Le projet est porté par une équipe de 9 personnes basée à Brooklyn, New York, cofondée en janvier 2024 par Gabriel Bianconi et Viraj Mehta.
Le parcours du CTO Viraj Mehta explique beaucoup de choix architecturaux. Son doctorat à CMU portait sur l'apprentissage par renforcement appliqué aux réacteurs à fusion nucléaire, un domaine où chaque point de données coûte environ 30 000 dollars pour 5 secondes de collecte. Cette expérience a généré une philosophie obsessionnelle : ne jamais gaspiller une seule donnée. C'est cette philosophie qui alimente le concept de « data flywheel » au cœur de TensorZero.
L'équipe compte également Aaron Hill, mainteneur du compilateur Rust (ce qui n'est pas anodin quand le produit est écrit à 77,5 % en Rust), Alan Mishler, VP chez J.P. Morgan AI Research avec plus de 1 300 citations, et Shuyang Li, Staff Engineer chez Google sur l'infrastructure LLM.
En août 2025, TensorZero a levé 7,3 millions de dollars en seed avec FirstMark Capital (Matt Turck) en lead, accompagné de Bessemer Venture Partners, Bedrock et DRW, d'après le blog officiel de TensorZero. Le projet totalise aujourd'hui 11 100 étoiles GitHub, 769 forks et 124 contributeurs.
Pourquoi TensorZero est construit en Rust (et pourquoi vous devriez vous en soucier)
Le choix du langage de programmation pour un gateway LLM n'est pas un détail cosmétique. Le gateway est le chemin critique de votre infrastructure IA : chaque appel LLM passe par cette couche. Toute latence ajoutée se multiplie par le nombre de requêtes.
Les benchmarks publiés par TensorZero, réalisés sur une instance AWS c7i.xlarge (4 vCPUs, 8 Go RAM), montrent un fossé impressionnant avec LiteLLM (écrit en Python) :
Métrique | LiteLLM à 100 QPS | LiteLLM à 500 QPS | LiteLLM à 1 000 QPS | TensorZero à 10 000 QPS |
|---|---|---|---|---|
Latence moyenne | 4,91 ms | 7,45 ms | Échec total | 0,37 ms |
P50 | 4,83 ms | 5,81 ms | Échec total | 0,35 ms |
P90 | 5,26 ms | 10,02 ms | Échec total | 0,50 ms |
P99 | 5,87 ms | 39,69 ms | Échec total | 0,94 ms |
Autrement dit : TensorZero à 10 000 requêtes par seconde affiche une latence inférieure à celle de LiteLLM à 100 requêtes par seconde. Et LiteLLM s'effondre purement et simplement au-delà de 1 000 QPS, d'après les benchmarks officiels.
Pour une agence comme Bridgers, qui conçoit des produits IA devant absorber des pics de trafic imprévisibles, cette différence de performance n'est pas académique : elle détermine si votre infrastructure tient ou non.
Quatre raisons techniques expliquent cet écart :
Pas de garbage collector. Rust utilise un modèle d'ownership qui garantit la sécurité mémoire sans pauses GC. Résultat : zéro pic de latence aléatoire.
Concurrence sans data races. Le système de types de Rust détecte les courses critiques à la compilation. Pour un gateway concurrent, c'est une catégorie entière de bugs éliminée.
Pas de GIL. Python impose un Global Interpreter Lock qui crée un plafond de débit. Rust n'a pas cette limitation.
Performances déterministes. Là où Python peut surprendre en production avec des ralentissements inattendus, Rust offre une prévisibilité opérationnelle totale.
Le data flywheel : comment vos données de production améliorent vos modèles
Le concept le plus original de TensorZero est son data flywheel, une boucle d'apprentissage auto-renforçante qui transforme chaque interaction en production en une opportunité d'amélioration.
L'idée repose sur une modélisation des applications LLM en POMDPs (Partially Observable Markov Decision Processes), un cadre théorique issu de l'apprentissage par renforcement. Concrètement, chaque fonction LLM est vue comme un agent qui observe un environnement partiel, prend une décision (la sortie texte), et reçoit une récompense (le KPI métier), selon le blog technique de TensorZero.
La boucle fonctionne ainsi :
Collecter : chaque inférence est stockée dans ClickHouse de manière structurée. TensorZero enregistre les variables d'entrée et les sorties, pas les prompts bruts. Cela rend les données portables entre fournisseurs : vous pouvez fine-tuner un modèle Anthropic avec des données collectées via OpenAI.
Optimiser : les données alimentent plusieurs types d'optimisation. Fine-tuning supervisé (SFT), fine-tuning par préférence (DPO), RLHF pour les modèles. MIPROv2, DSPy et GEPA pour les prompts. Dynamic In-Context Learning (DICL), Best-of-N et Mixture-of-N pour l'inférence.
Évaluer : des backtests hors ligne sur les données historiques valident chaque optimisation avant déploiement. Vous pouvez rejouer 6 mois d'inférences avec un nouveau prompt sans envoyer une seule requête à un LLM.
Boucler : le trafic de production génère automatiquement de nouvelles variantes et les évalue. Les ingénieurs se focalisent sur les décisions stratégiques.
Autopilot : l'ingénieur IA qui optimise vos LLMs pendant que vous dormez
Lancé en preview dans la version 2026.1.7 (février 2026), TensorZero Autopilot est décrit par l'équipe comme « Claude Code pour l'ingénierie LLM ». C'est un système automatisé qui opère au-dessus du stack pour optimiser vos applications LLM en continu.
Concrètement, Autopilot :
Analyse des millions d'inférences pour détecter des patterns d'erreur
Recommande des changements de modèles ou de stratégies d'inférence
Génère et affine des prompts à partir du feedback réel
Pilote des workflows de fine-tuning, de RL et de distillation de connaissances
Configure des évaluations et prévient les régressions
Lance des tests A/B pour valider les changements
Pour une agence, l'intérêt est évident : Autopilot pourrait réduire considérablement le temps d'ingénierie consacré à l'optimisation manuelle des LLMs pour chaque client. L'équipe TensorZero affirme avoir obtenu des « améliorations substantielles de performance dans des cas d'usage allant de l'extraction de données au support client par agents IA ».
Autopilot est actuellement accessible sur invitation uniquement. C'est aussi la future couche de monétisation de TensorZero : le stack open source reste gratuit, Autopilot sera le service managé payant.
Comparatif technique : TensorZero vs LangSmith vs Langfuse vs LiteLLM
Lorsque nous évaluons un outil pour les projets de nos clients, nous le comparons systématiquement aux alternatives. Voici comment TensorZero se positionne.
Critère | TensorZero | LangSmith | Langfuse | LiteLLM |
|---|---|---|---|---|
Licence | Apache 2.0 (100 % gratuit) | Commercial (payant) | Partiel (tier payant) | Partiel (tier entreprise) |
Gateway LLM | Oui (Rust, < 1 ms P99) | Non (via LangChain) | Non | Oui (Python, échoue à 1K QPS) |
Observabilité | UI OSS + ClickHouse | Payante | UI complète | Intégrations tierces |
Fine-tuning intégré | SFT, DPO, RLHF | Non | Non | Non |
A/B testing natif | Oui (RCT + bandits) | Non | Non | Non |
Optimisation inférence | DICL, BoN, MoN, CoT | Non | Non | Non |
Évaluations | Statiques + dynamiques | Payantes | Intégrées | Non |
Self-hosted | Complet | Partiel | Oui | Oui |
Fournisseurs natifs | 19+ | Via LangChain | N/A | 100+ |
Routage dynamique | Non (statique) | Non | N/A | Oui (latence/coût) |
Ce que TensorZero fait mieux que LangSmith
TensorZero sépare proprement l'ingénierie applicative de l'optimisation LLM. LangSmith nécessite un abonnement payant et reste dépendant de l'écosystème LangChain. TensorZero est agnostique au langage (API HTTP), là où LangChain impose Python ou JavaScript, selon la documentation de comparaison. Pour une agence qui travaille avec des stacks technologiques variés, cette flexibilité est précieuse.
Ce que TensorZero fait mieux que Langfuse
Langfuse excelle dans l'observabilité avec une UI mature et un playground avancé. Mais il ne propose ni gateway, ni fine-tuning, ni A/B testing, ni optimisation en temps d'inférence. TensorZero couvre tous ces aspects. Les deux outils peuvent d'ailleurs cohabiter, selon la page de comparaison officielle.
Ce que TensorZero fait mieux que LiteLLM
La performance brute est le différenciateur majeur. Mais au-delà du gateway, TensorZero offre un écosystème complet que LiteLLM ne propose pas : évaluations, expérimentation, optimisation, observabilité intégrée. LiteLLM reste supérieur sur le nombre de fournisseurs supportés (100+) et le routage dynamique par latence ou coût, d'après les benchmarks officiels.
Cas d'usage : ce que TensorZero peut faire pour vos projets clients
Déploiement on-premise pour des secteurs réglementés
Une étude de cas publiée par TensorZero décrit l'automatisation des changelogs de code dans une grande banque européenne. Les points clés pour les agences :
Déploiement entièrement on-premise avec TensorZero + Ollama
Aucune donnée ne quitte l'infrastructure du client
Le Dynamic In-Context Learning (DICL) permet une amélioration continue sans intervention ML
Intégration dans les pipelines CI/CD existants (GitLab)
Pour des clients dans la finance, la santé ou le juridique, cette capacité de déploiement souverain est un argument décisif.
Optimisation de modèles à moindre coût
L'exemple NER (Named Entity Recognition) de TensorZero démontre qu'un GPT-4o Mini optimisé peut surpasser GPT-4o non optimisé, à une fraction du coût et de la latence. Pour une agence qui facture des projets IA, pouvoir offrir des performances supérieures avec des modèles moins chers augmente directement les marges.
A/B testing de modèles en production
Vous développez un chatbot pour un client. Plutôt que de choisir arbitrairement entre GPT-4o, Claude 3.7 et Mistral, vous déployez les trois via TensorZero avec un test A/B natif. Le système mesure automatiquement quel modèle produit les meilleures réponses selon les KPIs du client (satisfaction, précision, temps de résolution). Pas de script maison, pas de biais de sélection.
Agents IA avec boucle d'apprentissage
Pour des agents de support client, d'extraction de données ou de génération de contenu, le data flywheel de TensorZero transforme chaque interaction en donnée d'entraînement. Plus l'agent est utilisé, plus il s'améliore. C'est le passage d'un agent IA statique à un agent IA qui apprend.
Le modèle économique : zéro coût, mais pour combien de temps ?
TensorZero est distribué sous licence Apache 2.0 sans aucune restriction. Le support entreprise est gratuit. Le self-hosting ne coûte rien au-delà de vos propres clés API LLM et de l'infrastructure ClickHouse.
Gabriel Bianconi l'a expliqué à VentureBeat : « Nous avons réalisé très tôt que nous devions rendre cela open source, pour donner aux entreprises la confiance nécessaire. » La monétisation viendra du service managé Autopilot, qui proposera l'infrastructure GPU pour le fine-tuning et la gestion automatisée des expérimentations.
Matt Turck de FirstMark a résumé sa conviction dans un tweet : « Been thinking about feedback loops in AI forever and those guys are the real deal. »
Les 19+ fournisseurs LLM compatibles avec TensorZero
Le gateway TensorZero supporte nativement plus de 19 fournisseurs : OpenAI, Anthropic, AWS Bedrock, AWS SageMaker, Azure OpenAI, DeepSeek, Fireworks, GCP Vertex AI (Anthropic et Gemini), Google AI Studio, Groq, Hyperbolic, Mistral, OpenRouter, SGLang, TGI, Together AI, vLLM, xAI (Grok), et toute API compatible OpenAI.
Pour les agences, l'intérêt est double. Vous pouvez commencer un projet avec un fournisseur et migrer vers un autre sans réécrire votre code. Et vous pouvez intégrer des modèles auto-hébergés via vLLM ou Ollama pour les clients avec des contraintes de souveraineté.
Ce qui manque encore à TensorZero
Aucun outil n'est parfait, et TensorZero a des limites réelles :
L'approche GitOps peut rebuter. La gestion des prompts se fait via des fichiers de configuration TOML versionnés dans Git. Pour des équipes habituées à des interfaces graphiques comme LangSmith ou Langfuse, la transition demande un effort.
L'UI est fonctionnelle, pas élégante. Si vous devez présenter un dashboard d'observabilité à un client non technique, Langfuse ou LangSmith offrent une meilleure expérience visuelle.
Pas de routage dynamique. LiteLLM permet de router dynamiquement les requêtes selon la latence ou le coût du fournisseur. TensorZero ne supporte que le routage statique.
Environ 20 fournisseurs natifs. Contre plus de 100 pour LiteLLM. Le support de toute API compatible OpenAI compense partiellement cette limite.
Pas de SSO natif. Les grandes organisations devront ajouter Nginx ou OAuth2 Proxy pour gérer l'authentification.
Autopilot est en preview. La fonctionnalité phare n'est pas encore disponible publiquement.
Quand recommander TensorZero à un client ?
Oui, si : le client opère des LLMs en production à moyenne ou grande échelle, veut optimiser continuellement ses modèles, a des contraintes de performance ou de souveraineté des données, ou veut construire un avantage compétitif via l'apprentissage continu.
Non, si : le client en est au stade du prototype, n'a pas de culture DevOps, a besoin d'une interface graphique complète pour des utilisateurs non techniques, ou opère à très faible volume.
L'équipe de 9 personnes derrière TensorZero
Le projet est porté par une équipe de 9 personnes basée à Brooklyn, New York, cofondée en janvier 2024 par Gabriel Bianconi et Viraj Mehta.
Le parcours du CTO Viraj Mehta explique beaucoup de choix architecturaux. Son doctorat à CMU portait sur l'apprentissage par renforcement appliqué aux réacteurs à fusion nucléaire, un domaine où chaque point de données coûte environ 30 000 dollars pour 5 secondes de collecte. Cette expérience a généré une philosophie obsessionnelle : ne jamais gaspiller une seule donnée. C'est cette philosophie qui alimente le concept de « data flywheel » au cœur de TensorZero.
L'équipe compte également Aaron Hill, mainteneur du compilateur Rust (ce qui n'est pas anodin quand le produit est écrit à 77,5 % en Rust), Alan Mishler, VP chez J.P. Morgan AI Research avec plus de 1 300 citations, et Shuyang Li, Staff Engineer chez Google sur l'infrastructure LLM.
En août 2025, TensorZero a levé 7,3 millions de dollars en seed avec FirstMark Capital (Matt Turck) en lead, accompagné de Bessemer Venture Partners, Bedrock et DRW, d'après le blog officiel de TensorZero. Le projet totalise aujourd'hui 11 100 étoiles GitHub, 769 forks et 124 contributeurs.
Notre analyse : un outil à surveiller de très près
TensorZero est le projet le plus complet de l'écosystème LLMOps open source. Là où les alternatives se spécialisent sur un aspect (Langfuse sur l'observabilité, LiteLLM sur le gateway, LangChain sur le prototypage), TensorZero vise l'intégration de bout en bout.
Le pari est ambitieux : construire en Rust pour des performances sans compromis, modéliser les applications LLM comme des POMDPs pour maximiser l'apprentissage, et rendre l'ensemble 100 % gratuit. Avec 11 100 étoiles GitHub, 7,3 millions de dollars levés et une équipe qui compte un mainteneur du compilateur Rust et un VP de J.P. Morgan AI Research, le projet a les ressources pour concrétiser cette vision.
Comme le note le guide des gateways LLM de getmaxim.ai : « TensorZero cible les équipes avec des cultures DevOps fortes qui traitent leur infrastructure IA avec la même rigueur que leurs systèmes backend traditionnels. »
Pour les agences qui construisent des produits IA pour leurs clients, TensorZero représente une opportunité de passer d'un assemblage fragile d'outils disparates à un stack unifié, performant et gratuit. Nous continuons à l'évaluer sur des projets parallèles, et nous vous tiendrons informés de nos retours.
Envie d’automatiser ?
Audit gratuit de 30 min. On identifie vos 3 quick wins IA.
Réserver un audit gratuit →


