Skip to main content
本页涵盖 LangChain 与 Amazon Web Services (AWS) 平台的所有集成。

聊天模型

Bedrock 聊天

Amazon Bedrock 是一个全托管服务,通过单一 API 提供来自 AI21 LabsAnthropicCohereMetaStability AIAmazon 等领先 AI 公司的高性能基础模型(FM), 以及构建具有安全性、隐私性和负责任 AI 的生成式 AI 应用所需的广泛功能。 使用 Amazon Bedrock,您可以轻松试验和评估适合您用例的顶级 FM, 通过微调和检索增强生成RAG)等技术用您的私有数据对其进行定制, 并构建使用您的企业系统和数据源执行任务的 Agent。 由于 Amazon Bedrock 是无服务器的,您无需管理任何基础设施, 可以使用您已熟悉的 AWS 服务将生成式 AI 功能安全地集成和部署到应用程序中。
查看使用示例
from langchain_aws import ChatBedrock

Bedrock Converse

AWS Bedrock 维护了一个 Converse API, 为 Bedrock 模型提供统一的对话接口。此 API 目前不支持自定义模型。 您可以在此处查看所有支持的模型列表。
我们建议不需要使用自定义模型的用户使用 Converse API。可通过 ChatBedrockConverse 访问。
查看使用示例
from langchain_aws import ChatBedrockConverse

LLM

Bedrock

查看使用示例
from langchain_aws import BedrockLLM

Amazon API Gateway

Amazon API Gateway 是一个全托管服务,使开发者能够轻松创建、发布、维护、 监控和保护任意规模的 API。API 充当应用程序从后端服务访问数据、业务逻辑或功能的”前门”。 使用 API Gateway,您可以创建 RESTful API 和 WebSocket API,实现实时双向通信应用程序。 API Gateway 支持容器化和无服务器工作负载以及 Web 应用程序。 API Gateway 处理接受和处理多达数十万个并发 API 调用所涉及的所有任务,包括流量管理、CORS 支持、 授权和访问控制、限流、监控以及 API 版本管理。 API Gateway 没有最低费用或启动成本。您按收到的 API 调用次数和传出的数据量付费, 通过 API Gateway 的分层定价模型,随着 API 使用量的增加,您可以降低成本。
查看使用示例
from langchain_community.llms import AmazonAPIGateway

SageMaker 端点

Amazon SageMaker 是一个系统,可使用全托管的基础设施、工具和工作流程构建、训练和部署机器学习(ML)模型。
我们使用 SageMaker 托管模型并将其作为 SageMaker Endpoint 公开。 查看使用示例
from langchain_aws import SagemakerEndpoint

嵌入模型

Bedrock

查看使用示例
from langchain_aws import BedrockEmbeddings

SageMaker 端点

查看使用示例
from langchain_community.embeddings import SagemakerEndpointEmbeddings
from langchain_community.llms.sagemaker_endpoint import ContentHandlerBase

文档加载器

AWS S3 目录和文件

Amazon Simple Storage Service (Amazon S3) 是一种对象存储服务。 AWS S3 目录 AWS S3 存储桶
查看 S3DirectoryLoader 的使用示例 查看 S3FileLoader 的使用示例
from langchain_community.document_loaders import S3DirectoryLoader, S3FileLoader

Amazon Textract

Amazon Textract 是一个机器学习(ML)服务, 可自动从扫描文档中提取文本、手写内容和数据。
查看使用示例
from langchain_community.document_loaders import AmazonTextractPDFLoader

Amazon Athena

Amazon Athena 是一个基于开源框架构建的无服务器交互式分析服务, 支持开放表和文件格式。
查看使用示例
from langchain_community.document_loaders.athena import AthenaLoader

AWS Glue

AWS Glue 数据目录 是一个集中式元数据存储库, 允许您管理、访问和共享存储在 AWS 上的数据的元数据。 它充当数据资产的元数据存储,使各种 AWS 服务和应用程序能够高效地查询和连接所需数据。
查看使用示例
from langchain_community.document_loaders.glue_catalog import GlueCatalogLoader

向量存储

Amazon OpenSearch Service

Amazon OpenSearch Service 可执行交互式日志分析、 实时应用程序监控、网站搜索等功能。OpenSearch 是一个开源的分布式搜索和分析套件, 源自 ElasticsearchAmazon OpenSearch Service 提供 OpenSearch 的最新版本、 对多个 Elasticsearch 版本的支持,以及由 OpenSearch DashboardsKibana 驱动的可视化功能。
我们需要安装几个 Python 库。
pip install boto3 requests requests-aws4auth
查看使用示例
from langchain_community.vectorstores import OpenSearchVectorSearch

Amazon DocumentDB 向量搜索

Amazon DocumentDB(MongoDB 兼容) 使在云中设置、操作和扩展 MongoDB 兼容数据库变得简单。 使用 Amazon DocumentDB,您可以运行相同的应用程序代码,并使用与 MongoDB 相同的驱动程序和工具, 只需将应用程序指向 API for MongoDB (vCore) 集群的连接字符串即可。 Amazon DocumentDB 的向量搜索将 JSON 文档数据库的灵活性和丰富查询功能与向量搜索的强大能力相结合。

安装与设置

查看详细配置说明 我们需要安装 pymongo Python 包。
pip install pymongo

在 AWS 上部署 DocumentDB

Amazon DocumentDB(MongoDB 兼容) 是一个快速、可靠且全托管的数据库服务。 Amazon DocumentDB 使在云中设置、操作和扩展 MongoDB 兼容数据库变得简单。 AWS 提供计算、数据库、存储、分析和其他功能的服务。有关所有 AWS 服务的概述,请参阅使用 Amazon Web Services 进行云计算 查看使用示例
from langchain_community.vectorstores import DocumentDBVectorSearch

Amazon MemoryDB

Amazon MemoryDB 是一个耐久的内存数据库服务,提供超快性能。 MemoryDB 兼容 Redis OSS(一种流行的开源数据存储), 使您能够使用他们今天已经使用的相同灵活友好的 Redis OSS API 和命令快速构建应用程序。 InMemoryVectorStore 类提供了一个连接 Amazon MemoryDB 的向量存储。
from langchain_aws.vectorstores.inmemorydb import InMemoryVectorStore

vds = InMemoryVectorStore.from_documents(
            chunks,
            embeddings,
            redis_url="rediss://cluster_endpoint:6379/ssl=True ssl_cert_reqs=none",
            vector_schema=vector_schema,
            index_name=INDEX_NAME,
        )
查看使用示例

检索器

Amazon Kendra

Amazon Kendra 是由 Amazon Web ServicesAWS)提供的智能搜索服务。 它利用先进的自然语言处理(NLP)和机器学习算法,在组织内各种数据源中实现强大的搜索功能。 Kendra 旨在帮助用户快速准确地找到所需信息,提高工作效率和决策能力。
使用 Kendra,我们可以搜索各种类型的内容,包括文档、FAQ、知识库、手册和网站。 它支持多种语言,能够理解复杂查询、同义词和上下文含义,从而提供高度相关的搜索结果。
我们需要安装 langchain-aws 库。
pip install langchain-aws
查看使用示例
from langchain_aws import AmazonKendraRetriever

Amazon Bedrock(知识库)

Amazon Bedrock 知识库Amazon Web ServicesAWS)提供的服务, 允许您使用私有数据定制基础模型响应,从而快速构建 RAG 应用程序。
我们需要安装 langchain-aws 库。
pip install langchain-aws
查看使用示例
from langchain_aws import AmazonKnowledgeBasesRetriever

工具

AWS Lambda

Amazon AWS Lambda 是由 Amazon Web ServicesAWS)提供的无服务器计算服务。 它帮助开发者在无需配置或管理服务器的情况下构建和运行应用程序和服务。 这种无服务器架构使您可以专注于编写和部署代码,而 AWS 自动负责扩展、修补和管理运行应用程序所需的基础设施。
我们需要安装 boto3 Python 库。
pip install boto3
查看使用示例
from langchain_community.chat_message_histories import DynamoDBChatMessageHistory

Amazon Bedrock AgentCore 浏览器

Amazon Bedrock AgentCore 浏览器 使 Agent 能够通过托管的 Chrome 浏览器与网页交互,实现导航、内容提取和 Web 自动化。
pip install langchain-aws bedrock-agentcore playwright beautifulsoup4
查看使用示例
from langchain_aws.tools import create_browser_toolkit

# Create toolkit
toolkit, browser_tools = create_browser_toolkit(region="us-west-2")

# Use with an agent
agent = create_react_agent(model=llm, tools=browser_tools)
result = await agent.ainvoke(
    {"messages": [{"role": "user", "content": "Go to example.com and get the heading"}]},
    config={"configurable": {"thread_id": "session-1"}}
)

# Cleanup when done
await toolkit.cleanup()

Amazon Bedrock AgentCore 代码解释器

Amazon Bedrock AgentCore 代码解释器 使 Agent 能够在安全的托管沙盒环境中执行 Python、JavaScript 和 TypeScript 代码,用于计算、数据分析和可视化。
pip install langchain-aws bedrock-agentcore
查看使用示例
from langchain_aws.tools import create_code_interpreter_toolkit

# Create toolkit (async)
toolkit, code_tools = await create_code_interpreter_toolkit(region="us-west-2")

# Use with an agent
agent = create_react_agent(model=llm, tools=code_tools)
result = await agent.ainvoke(
    {"messages": [{"role": "user", "content": "Calculate factorial of 10"}]},
    config={"configurable": {"thread_id": "session-1"}}
)

# Cleanup when done
await toolkit.cleanup()

图数据库

Amazon Neptune

Amazon Neptune 是一个高性能图分析和无服务器数据库,具有卓越的可扩展性和可用性。
对于以下 Cypher 和 SPARQL 集成,我们需要安装 langchain-aws 库。
pip install langchain-aws

使用 Cypher 的 Amazon Neptune

查看使用示例
from langchain_aws.graphs import NeptuneGraph
from langchain_aws.graphs import NeptuneAnalyticsGraph
from langchain_aws.chains import create_neptune_opencypher_qa_chain

使用 SPARQL 的 Amazon Neptune

from langchain_aws.graphs import NeptuneRdfGraph
from langchain_aws.chains import create_neptune_sparql_qa_chain

记忆

Amazon Bedrock AgentCore 记忆

Amazon Bedrock AgentCore 记忆 为 LangGraph Agent 提供托管持久性,通过自动扩展和高可用性实现跨会话的对话历史和状态管理。
pip install langgraph-checkpoint-aws
from langgraph_checkpoint_aws import AgentCoreMemorySaver

# Create checkpointer
checkpointer = AgentCoreMemorySaver(
    memory_id="your-memory-id",
    region_name="us-west-2"
)

# Use with LangGraph
graph = workflow.compile(checkpointer=checkpointer)

# Invoke with thread_id and actor_id for conversation persistence
config = {
    "configurable": {
        "thread_id": "user-123",
        "actor_id": "my-agent"  # Required for AgentCore
    }
}
result = graph.invoke({"messages": []}, config)
主要特性:
  • 托管基础设施,无需数据库设置
  • 自动扩展和高可用性
  • 通过 actor_id 隔离支持多 Agent
  • 静态和传输加密

Amazon Bedrock AgentCore 记忆存储

Amazon Bedrock AgentCore 记忆存储 为 LangGraph Agent 提供具有语义搜索功能的长期记忆,支持跨会话存储和检索用户偏好、事实和提取的记忆。
from langgraph_checkpoint_aws import AgentCoreMemoryStore

# Initialize store for long-term memories
store = AgentCoreMemoryStore(memory_id="your-memory-id", region_name="us-west-2")

# Use in a pre-model hook to save and retrieve memories
def pre_model_hook(state, config, *, store):
    actor_id = config["configurable"]["actor_id"]
    thread_id = config["configurable"]["thread_id"]
    namespace = (actor_id, thread_id)

    # Save a message
    store.put(namespace, str(uuid.uuid4()), {"message": msg})

    # Search for relevant memories
    results = store.search(("preferences", actor_id), query="user preferences", limit=5)
    return {"model_input_messages": state["messages"]}

回调

Bedrock 令牌用量

from langchain_community.callbacks.bedrock_anthropic_callback import BedrockAnthropicTokenUsageCallbackHandler

SageMaker 追踪

Amazon SageMaker 是一个全托管服务,用于快速轻松地构建、训练和部署机器学习(ML)模型。
Amazon SageMaker ExperimentsAmazon SageMaker 的一项功能,允许您组织、跟踪、比较和评估 ML 实验和模型版本。
我们需要安装几个 Python 库。
pip install google-search-results sagemaker
查看使用示例
from langchain_community.callbacks import SageMakerCallbackHandler

Amazon Comprehend 内容审核链

Amazon Comprehend 是一项自然语言处理(NLP)服务, 使用机器学习在文本中发现有价值的洞察和关联。
我们需要安装 boto3nltk 库。
pip install boto3 nltk
查看使用示例
from langchain_experimental.comprehend_moderation import AmazonComprehendModerationChain

运行时

Amazon Bedrock AgentCore 运行时

Amazon Bedrock AgentCore 运行时 为 LangGraph Agent 提供托管的无服务器执行环境,内置可观测性、自动扩展以及与其他 AgentCore 服务的无缝集成。
pip install bedrock-agentcore
from bedrock_agentcore.runtime import BedrockAgentCoreApp

app = BedrockAgentCoreApp()

@app.entrypoint
def agent_invocation(payload, context):
    result = graph.invoke({"messages": [{"role": "user", "content": payload["prompt"]}]})
    return {"result": result["messages"][-1].content}

app.run()
使用 AgentCore CLI 部署:
# Configure your agent
agentcore configure

# Deploy to AgentCore Runtime
agentcore launch -e your_agent.py