Skip to main content
MLflow 是一个多功能的开源平台,用于管理机器学习和生成式 AI 生命周期中的工作流和制品。它与许多流行的 AI 和 ML 库内置集成,但也可以与任何库、算法或部署工具配合使用。
MLflow 的 LangChain 集成提供以下功能:
  • 追踪:用一行代码(mlflow.langchain.autolog())可视化 LangChain 组件中的数据流
  • 实验追踪:记录 LangChain 运行的制品、代码和指标
  • 模型管理:对 LangChain 应用进行版本控制和部署,并进行依赖追踪
  • 评估:衡量 LangChain 应用的性能
注意:MLflow 追踪功能在 MLflow 2.14.0 及更高版本中可用。 本简要指南重点介绍 MLflow 对 LangChain 和 LangGraph 应用的追踪功能。您将了解如何用一行代码启用追踪并查看应用的执行流程。有关 MLflow 其他功能的信息及更多教程,请参阅 MLflow LangChain 文档。如果您是 MLflow 新用户,请查看 MLflow 入门指南

设置

要开始使用 MLflow 对 LangChain 进行追踪,请安装 MLflow Python 包。我们还将使用 langchain-openai 包。
pip install mlflow langchain-openai langgraph -qU
接下来,设置 MLflow 追踪 URI 和 OpenAI API 密钥。
import os

# Set MLflow tracking URI if you have MLflow Tracking Server running
os.environ["MLFLOW_TRACKING_URI"] = ""
os.environ["OPENAI_API_KEY"] = ""

MLflow 追踪

MLflow 的追踪功能帮助您可视化 LangChain 应用的执行流程。以下是启用方式:
import mlflow

# Optional: Set an experiment to organize your traces
mlflow.set_experiment("LangChain MLflow Integration")

# Enable tracing
mlflow.langchain.autolog()

示例:追踪 LangChain 应用

以下是使用 MLflow 追踪 LangChain 的完整示例:
import mlflow
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

# Enable MLflow tracing
mlflow.langchain.autolog()

# Create a simple chain
llm = ChatOpenAI(model_name="gpt-4.1")

prompt = ChatPromptTemplate.from_messages(
    [
        (
            "system",
            "You are a helpful assistant that translates {input_language} to {output_language}.",
        ),
        ("human", "{input}"),
    ]
)

chain = prompt | llm | StrOutputParser()

# Run the chain
result = chain.invoke(
    {
        "input_language": "English",
        "output_language": "German",
        "input": "I love programming.",
    }
)
要查看追踪,请在终端运行 mlflow ui 并导航到 MLflow UI 中的”Traces”标签页。

示例:追踪 LangGraph 应用

MLflow 还支持追踪 LangGraph 应用:
import mlflow
from langchain.tools import tool
from langchain.agents import create_agent


# Enable MLflow tracing
mlflow.langchain.autolog()


# Define a tool
@tool
def count_words(text: str) -> str:
    """Counts the number of words in a text."""
    word_count = len(text.split())
    return f"This text contains {word_count} words."


# Create a LangGraph agent
llm = ChatOpenAI(model="gpt-4.1")
tools = [count_words]
graph = create_agent(llm, tools)

# Run the agent
result = graph.invoke(
    {"messages": [{"role": "user", "content": "Write me a 71-word story about a cat."}]}
)
要查看追踪,请在终端运行 mlflow ui 并导航到 MLflow UI 中的”Traces”标签页。

资源

有关将 MLflow 与 LangChain 结合使用的更多信息,请访问: