Skip to main content
LangChain 是开始构建完全由 LLM 驱动的自定义代理和应用程序的简便方法。 只需不到 10 行代码,您就可以连接到 OpenAI、Anthropic、Google 以及更多提供商。 LangChain 提供了预构建的代理架构和模型集成,帮助您快速入门,并将 LLM 无缝集成到您的代理和应用程序中。
LangChain 与 LangGraph 与 Deep Agents 的对比如果您正在寻找构建代理,我们建议您从 Deep Agents 开始,它“开箱即用”,具有现代功能,如自动压缩长对话、虚拟文件系统以及用于管理和隔离上下文的子代理生成。Deep Agents 是 LangChain 代理 的实现。如果您不需要这些功能,或者希望为您的代理和自主应用程序自定义自己的功能,请从 LangChain 开始。当您有更高级的需求,需要确定性和代理工作流的组合以及大量自定义时,请使用 LangGraph,这是我们的低级代理编排框架和运行时。
LangChain 代理 构建在 LangGraph 之上,以提供持久执行、流式传输、人机回环、持久化等功能。对于基本的 LangChain 代理使用,您不需要了解 LangGraph。 如果您想快速构建代理和自主应用程序,我们建议您使用 LangChain。

创建代理

// 首先安装:npm install langchain @langchain/anthropic
import { z } from "zod";
import { createAgent, tool } from "langchain";

const getWeather = tool(
  ({ city }) => `It's always sunny in ${city}!`,
  {
    name: "get_weather",
    description: "Get the weather for a given city",
    schema: z.object({
      city: z.string(),
    }),
  },
);

const agent = createAgent({
  model: "anthropic:claude-sonnet-4-6",
  tools: [getWeather],
});

console.log(
  await agent.invoke({
    messages: [{ role: "user", content: "What's the weather in Tokyo?" }],
  })
);
请参阅安装说明快速入门指南,开始使用 LangChain 构建您自己的代理和应用程序。
使用 LangSmith 来跟踪请求、调试代理行为并评估输出。设置 LANGSMITH_TRACING=true 和您的 API 密钥即可开始。

核心优势

标准模型接口

不同的提供商具有与模型交互的独特 API,包括响应格式。LangChain 标准化了您与模型的交互方式,以便您可以无缝更换提供商并避免锁定。

易于使用、高度灵活的代理

LangChain 的代理抽象设计得易于上手,让您在不到 10 行代码内构建一个简单的代理。但它也提供了足够的灵活性,让您能够随心所欲地进行所有上下文工程。
https://mintcdn.com/other-405835d4/zfoblcQReEYa-is2/images/brand/langgraph-icon.png?fit=max&auto=format&n=zfoblcQReEYa-is2&q=85&s=4fe8f4c70fe7b1ddc099d7d83148a043

构建在 LangGraph 之上

LangChain 的代理构建在 LangGraph 之上。这使我们能够利用 LangGraph 的持久执行、人机回环支持、持久化等功能。
https://mintcdn.com/other-405835d4/zfoblcQReEYa-is2/images/brand/observability-icon-dark.png?fit=max&auto=format&n=zfoblcQReEYa-is2&q=85&s=a5ea23e3bf9ca95c33f73f9b2c93339d

使用 LangSmith 调试

通过可视化工具深入了解复杂代理行为,这些工具可以跟踪执行路径、捕获状态转换并提供详细的运行时指标。