SDK-ul Deep Agents de la LangChain permite acum modelelor AI să decidă când să comprime ferestrele lor de context, reducând intervenția manuală în fluxurile de lucru ale agenților de lungă durată. (ReadSDK-ul Deep Agents de la LangChain permite acum modelelor AI să decidă când să comprime ferestrele lor de context, reducând intervenția manuală în fluxurile de lucru ale agenților de lungă durată. (Read

LangChain Oferă Agenților AI Control Asupra Propriei Gestionări a Memoriei

2026/03/12 09:55
3 min de lectură
Pentru opinii sau preocupări cu privire la acest conținut, contactează-ne la crypto.news@mexc.com

LangChain Oferă Agenților AI Control Asupra Propriei Gestionări a Memoriei

Terrill Dicki 12 mar. 2026 01:55

SDK-ul Deep Agents al LangChain permite acum modelelor AI să decidă când să-și comprime ferestrele de context, reducând intervenția manuală în fluxurile de lucru ale agenților de lungă durată.

LangChain Oferă Agenților AI Control Asupra Propriei Gestionări a Memoriei

LangChain a lansat o actualizare a SDK-ului său Deep Agents care oferă modelelor AI cheile propriei gestionări a memoriei. Noua funcționalitate, anunțată pe 11 martie 2026, permite agenților să declanșeze autonom compresia contextului, în loc să se bazeze pe praguri fixe de token-uri sau comenzi manuale ale utilizatorilor.

Schimbarea abordează o problemă persistentă în dezvoltarea agenților: ferestrele de context se umplu în momente nepotrivite. Sistemele actuale compactează de obicei memoria când ating 85% din limita de context a unui model—ceea ce poate avea loc în mijlocul unei refactorizări sau în timpul unei sesiuni complexe de depanare. Momentul nepotrivit duce la pierderea contextului și la întreruperea fluxurilor de lucru.

De Ce Contează Momentul

Compresia contextului nu este nouă. Tehnica înlocuiește mesajele mai vechi cu rezumate condensate pentru a menține agenții în limitele lor de token-uri. Dar când comprimi contează la fel de mult ca și dacă comprimi.

Implementarea LangChain identifică mai multe momente optime de compresie: limite de sarcini când utilizatorii își schimbă focusul, după extragerea concluziilor din contexte mari de cercetare sau înainte de a începe editări lungi pe mai multe fișiere. Agentul învață practic să facă curățenie înainte de a începe o muncă dezordonată, în loc să se zbată când rămâne fără spațiu.

Cercetările de la Factory AI publicate în decembrie 2024 susțin această abordare. Analiza lor a constatat că sumarizarea structurată—păstrarea continuității contextului în loc de trunchiere agresivă—s-a dovedit critică pentru sarcinile complexe ale agenților, precum depanarea. Agenții care au menținut structura fluxului de lucru au avut performanțe semnificativ mai bune decât cei care foloseau metode simple de tăiere.

Implementare Tehnică

Instrumentul este livrat ca middleware pentru SDK-ul Deep Agents (Python) și se integrează cu CLI-ul existent. Dezvoltatorii îl adaugă la configurația agentului lor:

Sistemul păstrează 10% din contextul disponibil ca mesaje recente, în timp ce rezumă tot ce a fost anterior. LangChain a integrat o plasă de siguranță—istoricul complet al conversației persistă în sistemul de fișiere virtual al agentului, permițând recuperarea dacă compresia nu merge bine.

Testarea internă a arătat că agenții sunt conservatori în declanșarea compresiei. LangChain a validat funcționalitatea în raport cu benchmark-ul lor Terminal-bench-2 și suite personalizate de evaluare folosind urmele LangSmith. Când agenții au comprimat autonom, au ales în mod consistent momente care au îmbunătățit continuitatea fluxului de lucru.

Imaginea de Ansamblu

Această lansare reflectă o schimbare mai largă în filosofia arhitecturii agenților. LangChain face referire explicit la „lecția amară" a lui Richard Sutton—observația că metodele generale care valorifică calculul tind să depășească abordările reglate manual în timp.

În loc ca dezvoltatorii să configureze meticulos când ar trebui agenții să gestioneze memoria, framework-ul delega acea decizie modelului însuși. Este un pariu că capacitățile de raționament în modele precum GPT-5.4 au ajuns la punctul în care pot lua aceste decizii operaționale în mod fiabil.

Pentru dezvoltatorii care construiesc agenți de lungă durată sau interactivi, funcționalitatea este opțională prin SDK și disponibilă prin comanda /compact în CLI. Impactul practic: mai puține fluxuri de lucru întrerupte și mai puțină asistență pentru utilizatori în jurul limitelor de context pe care majoritatea utilizatorilor finali nu le înțeleg oricum.

Sursa imaginii: Shutterstock
  • langchain
  • agenți ai
  • compresie context
  • deep agents sdk
  • instrumente pentru dezvoltatori
Oportunitate de piață
Logo DeepBook
Pret DeepBook (DEEP)
$0,033036
$0,033036$0,033036
+7,52%
USD
DeepBook (DEEP) graficul prețurilor în timp real
Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează crypto.news@mexc.com pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.