Skip to main content
您当前所在页面介绍的是将 AI/ML API 模型用作文本补全模型。许多最新且最流行的 AI/ML API 模型是聊天补全模型您可能正在寻找此页面
本页面帮助您快速上手 AI/ML API 文本补全模型。有关所有 AIMLAPILLM 功能和配置的详细文档,请访问 API 参考

概述

集成详情

本地可序列化JS 支持下载量版本
AIMLAPILLMlangchain-aimlapibetaPyPI - DownloadsPyPI - Version

模型功能

工具调用结构化输出图像输入音频输入视频输入Token 级流式传输原生异步Token 用量Logprobs

设置

要访问 AI/ML API 模型,您需要创建账号、获取 API 密钥,并安装 langchain-aimlapi 集成包。

凭证

前往 aimlapi.com 注册并生成 API 密钥。完成后,设置 AIMLAPI_API_KEY 环境变量:
import getpass
import os

if not os.getenv("AIMLAPI_API_KEY"):
    os.environ["AIMLAPI_API_KEY"] = getpass.getpass("Enter your AI/ML API key: ")
要启用模型调用的自动追踪,请设置您的 LangSmith API 密钥:
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

LangChain AI/ML API 集成位于 langchain-aimlapi 包中:
pip install -qU langchain-aimlapi

实例化

现在我们可以实例化模型对象并生成文本补全:
from langchain_aimlapi import AIMLAPILLM

llm = AIMLAPILLM(
    model="gpt-3.5-turbo-instruct",
    temperature=0.5,
    max_tokens=256,
)

调用

response = llm.invoke("Explain the bubble sort algorithm in Python.")
print(response)
Bubble sort is a simple sorting algorithm that repeatedly steps through a list, compares adjacent items, and swaps them when they are out of order. The process repeats until the entire list is sorted. While easy to understand and implement, bubble sort is inefficient on large datasets because it has quadratic time complexity.

流式调用

您也可以逐 token 流式传输响应:
llm = AIMLAPILLM(
    model="gpt-3.5-turbo-instruct",
)

for chunk in llm.stream("List top 5 programming languages in 2025 with reasons."):
    print(chunk, end="", flush=True)

API 参考

有关所有 AIMLAPILLM 功能和配置的详细文档,请访问 API 参考