Outlines 是一个用于受约束语言生成的 Python 库。它为各种语言模型提供统一接口,并允许使用正则表达式匹配、类型约束、JSON 模式和上下文无关文法等技术进行结构化生成。Outlines 支持多种后端,包括:
- Hugging Face Transformers
- llama.cpp
- vLLM
- MLX
安装与设置
要将 Outlines 与 LangChain 结合使用,您需要安装 Outlines 库:- Transformers:
pip install transformers torch datasets - llama.cpp:
pip install llama-cpp-python - vLLM:
pip install vllm - MLX:
pip install mlx
LLM
要在 LangChain 中将 Outlines 用作 LLM,您可以使用Outlines 类:
聊天模型
要在 LangChain 中将 Outlines 用作聊天模型,您可以使用ChatOutlines 类:
模型配置
Outlines 和 ChatOutlines 类共享类似的配置选项:
模型标识符
model 参数可以是:
- Hugging Face 模型名称(例如,“meta-llama/Llama-2-7b-chat-hf”)
- 模型的本地路径
- 对于 GGUF 模型,格式为 “repo_id/file_name”(例如,“TheBloke/Llama-2-7B-Chat-GGUF/llama-2-7b-chat.Q4_K_M.gguf”)
后端选项
backend 参数指定要使用的后端:
"transformers":用于 Hugging Face Transformers 模型(默认)"llamacpp":用于使用 llama.cpp 的 GGUF 模型"transformers_vision":用于视觉语言模型(例如,LLaVA)"vllm":用于使用 vLLM 库的模型"mlxlm":用于使用 MLX 框架的模型
结构化生成
Outlines 提供了几种结构化生成的方法:-
正则表达式匹配:
这将确保生成的文本与指定的正则表达式模式匹配(在本例中为有效的 IP 地址)。
-
类型约束:
这将输出限制为有效的 Python 类型(int、float、bool、datetime.date、datetime.time、datetime.datetime)。
-
JSON 模式:
这确保生成的输出符合指定的 JSON 模式或 Pydantic 模型。
-
上下文无关文法:
这生成符合 EBNF 格式中指定的上下文无关文法的文本。
使用示例
LLM 示例
聊天模型示例
流式示例
结构化输出示例
附加功能
访问分词器
您可以访问模型的底层分词器:将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时答案。

