LangChain lance LangSmith Sandboxes pour l'exécution sécurisée de code par les Agents d'IA
Darius Baruo 17 mars 2026 16h28
LangChain dévoile LangSmith Sandboxes en aperçu privé, offrant des environnements isolés par microVM permettant aux Agents d'IA d'exécuter en toute sécurité du code non fiable.
LangChain a publié LangSmith Sandboxes en aperçu privé, offrant aux développeurs des environnements isolés où les Agents d'IA peuvent exécuter du code sans compromettre l'infrastructure hôte. La fonctionnalité est livrée avec une isolation microVM, une gestion d'état persistant et une intégration avec le SDK LangSmith existant.
Le timing répond à un problème croissant. Les agents de codage, de Cursor à Claude Code, ont démontré ce qui est possible lorsque l'IA peut écrire et exécuter son propre code. Mais cette capacité comporte des risques : une recherche de ClawSecure a révélé que 41 % des compétences OpenClaw contenaient des vulnérabilités pouvant exécuter des actions destructrices ou malveillantes sur les environnements locaux.
Ce qui est réellement livré
LangSmith Sandboxes fonctionne sur des microVM virtualisées matériellement plutôt que sur des conteneurs Linux standard. C'est une distinction significative : les conteneurs traditionnels partagent le noyau hôte, tandis que les microVM fournissent une isolation au niveau du noyau entre chaque instance de sandbox.
Les développeurs peuvent créer des sandboxes avec un seul appel SDK, apporter leurs propres images Docker depuis des registres privés et définir des modèles réutilisables pour les configurations CPU et mémoire. Le système prend en charge le pooling et l'autoscaling : les sandboxes préchauffés pré-provisionnés éliminent les délais de démarrage à froid, avec des instances supplémentaires qui se lancent automatiquement sous charge.
Pour les tâches d'agent plus longues, les sandboxes maintiennent des connexions WebSocket persistantes avec un streaming de sortie en temps réel. Les fichiers, les packages installés et l'état de l'environnement sont conservés entre les exécutions, de sorte que les agents ne perdent pas le contexte entre plusieurs interactions.
La sécurité est gérée via un proxy d'authentification qui achemine les appels de services externes sans exposer les identifiants à l'environnement d'exécution du sandbox. Les secrets ne touchent jamais l'environnement d'exécution.
Flexibilité du framework
LangChain a construit cela pour fonctionner au-delà de leur propre écosystème. Les SDK Python et JavaScript s'intègrent avec le framework Deep Agents de LangChain et le projet Open SWE, mais les sandboxes fonctionnent avec d'autres frameworks ou sans framework du tout.
Plusieurs agents peuvent partager l'accès au sandbox, éliminant le besoin de transférer des artefacts entre des environnements isolés. Les tunnels exposent les ports du sandbox aux machines locales pour prévisualiser la sortie de l'agent avant le déploiement.
La feuille de route
LangChain a décrit plusieurs fonctionnalités en développement actif : des volumes partagés pour la gestion d'état inter-sandbox, une autorisation binaire pour restreindre quels programmes peuvent s'exécuter, et un traçage d'exécution complet qui enregistre chaque processus et appel réseau à l'intérieur de la VM.
La partie autorisation binaire pourrait s'avérer particulièrement précieuse. Les agents présentent fréquemment un comportement inattendu : installation de packages, exportation d'identifiants, consommation de ressources de calcul sur des tâches non prévues. Restreindre l'exécution au niveau binaire reflète la manière dont les entreprises verrouillent les appareils d'entreprise.
Les développeurs intéressés par l'aperçu privé peuvent rejoindre la liste d'attente via le site Web de LangChain. L'entreprise sollicite des commentaires via sa communauté Slack sur la priorisation des fonctionnalités.
Source de l'image : Shutterstock- langchain
- Agents d'IA
- langsmith
- exécution de code
- outils de développement


