Timothy Morano2026年3月11日 04:56LangChain的新框架解析了代理如何通過檔案系統、沙箱和記憶管理,將原始AI模型轉化為可用於生產的系統。LangChain已發布一份全面的代理架構技術細節,規範了將原始語言模型轉變為自主工作引擎的基礎設施層。該框架由Vivek Trivedy於2026年3月11日撰寫,隨著代理工程逐漸成為AI代理性能的關鍵差異化因素而出現。核心論點看似簡單:代理 = 模型 + 構架。除了模型本身之外的所有內容——系統提示、工具執行、協調邏輯、中介掛鉤——都屬於構架的責任。原始模型無法在交互中維持狀態、執行代碼或存取即時知識。構架填補了這些空白。## 為何這對開發者重要LangChain的Terminal Bench 2.0排行榜數據揭示了一個反直覺的現象。Anthropic的Opus 4.6在Claude Code中的得分明顯低於在經過優化的第三方構架中運行的同一模型。該公司聲稱,僅通過改變構架——而非底層模型——就將其編碼代理的排名從前30提升到前5。這對於在模型選擇上投入大量資源、卻忽視基礎設施的團隊來說,是一個重要信號。## 技術堆疊該框架識別出幾個核心構架原語:**檔案系統**作為基礎層。它提供持久存儲,支持跨會話的工作持續性,並為多代理架構創建自然的協作界面。Git整合增加了版本控制、回滾能力和實驗分支。**沙箱**解決了運行代理生成代碼的安全問題。構架不在本地執行,而是連接到隔離環境進行代碼執行、依賴安裝和任務完成。網絡隔離和命令白名單提供額外的安全保障。**記憶與搜索**應對知識限制。像AGENTS.md這樣的標準在代理啟動時注入上下文,使代理能持久存儲並在未來會話中訪問知識,實現某種形式的持續學習。網絡搜索和Context7等工具則提供超出訓練截止的資訊存取。## 對抗上下文退化該框架通過多種機制應對上下文退化——即隨著上下文窗口填滿,模型推理能力下降。壓縮(Compaction)智能地總結並轉移內容,當窗口接近容量時。工具調用轉移則通過只保留頭尾標記,將完整結果存入檔案系統,減少噪音。技能(Skills)則實現漸進式披露,僅在需要時載入工具描述,而非在啟動時就塞滿上下文。## 長期執行對於跨越多個上下文窗口的複雜自主任務,LangChain提出了Ralph Loop模式。這個構架層的掛鉤會攔截模型退出嘗試,並將原始提示重新注入一個乾淨的上下文窗口,強制模型繼續完成任務。結合檔案系統的狀態持久化,代理能在長期任務中保持連貫性。## 訓練反饋循環像Claude Code和Codex這樣的產品現在在訓練後加入構架,形成模型能力與構架設計的緊密結合。這也帶來副作用——Codex-5.3的提示指南指出,改變文件編輯工具的邏輯會降低性能,暗示模型可能過度擬合特定的構架配置。LangChain正將這些研究應用於其deepagents庫,探索在共享代碼庫上協調數百個平行代理、自我分析追蹤構架層的失效模式,以及動態即時工具組裝。隨著模型在規劃和自我驗證方面的原生能力提升,一些構架功能可能會被吸收進基本能力中。但公司認為,良好的基礎設施在底層模型智能提升後仍然具有價值。*圖片來源:Shutterstock*
LangChain 定義了用於 AI 開發的代理駕駛架構
Timothy Morano
2026年3月11日 04:56
LangChain的新框架解析了代理如何通過檔案系統、沙箱和記憶管理,將原始AI模型轉化為可用於生產的系統。
LangChain已發布一份全面的代理架構技術細節,規範了將原始語言模型轉變為自主工作引擎的基礎設施層。該框架由Vivek Trivedy於2026年3月11日撰寫,隨著代理工程逐漸成為AI代理性能的關鍵差異化因素而出現。
核心論點看似簡單:代理 = 模型 + 構架。除了模型本身之外的所有內容——系統提示、工具執行、協調邏輯、中介掛鉤——都屬於構架的責任。原始模型無法在交互中維持狀態、執行代碼或存取即時知識。構架填補了這些空白。
為何這對開發者重要
LangChain的Terminal Bench 2.0排行榜數據揭示了一個反直覺的現象。Anthropic的Opus 4.6在Claude Code中的得分明顯低於在經過優化的第三方構架中運行的同一模型。該公司聲稱,僅通過改變構架——而非底層模型——就將其編碼代理的排名從前30提升到前5。
這對於在模型選擇上投入大量資源、卻忽視基礎設施的團隊來說,是一個重要信號。
技術堆疊
該框架識別出幾個核心構架原語:
檔案系統作為基礎層。它提供持久存儲,支持跨會話的工作持續性,並為多代理架構創建自然的協作界面。Git整合增加了版本控制、回滾能力和實驗分支。
沙箱解決了運行代理生成代碼的安全問題。構架不在本地執行,而是連接到隔離環境進行代碼執行、依賴安裝和任務完成。網絡隔離和命令白名單提供額外的安全保障。
記憶與搜索應對知識限制。像AGENTS.md這樣的標準在代理啟動時注入上下文,使代理能持久存儲並在未來會話中訪問知識,實現某種形式的持續學習。網絡搜索和Context7等工具則提供超出訓練截止的資訊存取。
對抗上下文退化
該框架通過多種機制應對上下文退化——即隨著上下文窗口填滿,模型推理能力下降。壓縮(Compaction)智能地總結並轉移內容,當窗口接近容量時。工具調用轉移則通過只保留頭尾標記,將完整結果存入檔案系統,減少噪音。技能(Skills)則實現漸進式披露,僅在需要時載入工具描述,而非在啟動時就塞滿上下文。
長期執行
對於跨越多個上下文窗口的複雜自主任務,LangChain提出了Ralph Loop模式。這個構架層的掛鉤會攔截模型退出嘗試,並將原始提示重新注入一個乾淨的上下文窗口,強制模型繼續完成任務。結合檔案系統的狀態持久化,代理能在長期任務中保持連貫性。
訓練反饋循環
像Claude Code和Codex這樣的產品現在在訓練後加入構架,形成模型能力與構架設計的緊密結合。這也帶來副作用——Codex-5.3的提示指南指出,改變文件編輯工具的邏輯會降低性能,暗示模型可能過度擬合特定的構架配置。
LangChain正將這些研究應用於其deepagents庫,探索在共享代碼庫上協調數百個平行代理、自我分析追蹤構架層的失效模式,以及動態即時工具組裝。隨著模型在規劃和自我驗證方面的原生能力提升,一些構架功能可能會被吸收進基本能力中。但公司認為,良好的基礎設施在底層模型智能提升後仍然具有價值。
圖片來源:Shutterstock