Skip to main content
Google Cloud BigQuery 向量搜索 让您可以使用 GoogleSQL 进行语义搜索,通过向量索引获取快速的近似结果,或通过暴力搜索获取精确结果。
本教程演示如何在 LangChain 中使用端到端的数据和嵌入管理系统,并使用 BigQueryVectorStore 类在 BigQuery 中提供可扩展的语义搜索。该类是一组 2 个类的一部分,能够在 Google Cloud 中提供统一的数据存储和灵活的向量搜索:
  • BigQuery 向量搜索:使用 BigQueryVectorStore 类,适合快速原型开发,无需基础设施设置,支持批量检索。
  • Feature Store Online Store:使用 VertexFSVectorStore 类,支持手动或定时数据同步的低延迟检索。非常适合面向生产环境的用户侧 GenAI 应用。
Diagram BQ-VertexFS

快速开始

安装库

pip install -qU  langchain langchain-google-vertexai "langchain-google-community[featurestore]"
要在此 Jupyter 运行时中使用新安装的包,您需要重启运行时。可以通过运行以下单元格来重启当前内核。
import IPython

app = IPython.Application.instance()
app.kernel.do_shutdown(True)

开始之前

设置您的项目 ID

如果您不知道项目 ID,请尝试以下方法:
  • 运行 gcloud config list
  • 运行 gcloud projects list
  • 查看支持页面:找到项目 ID
PROJECT_ID = ""  # @param {type:"string"}

# Set the project id
! gcloud config set project {PROJECT_ID}

设置区域

您也可以更改 BigQuery 使用的 REGION 变量。了解更多关于 BigQuery 区域 的信息。
REGION = "us-central1"  # @param {type: "string"}

设置数据集和表名称

它们将作为您的 BigQuery 向量存储。
DATASET = "my_langchain_dataset"  # @param {type: "string"}
TABLE = "doc_and_vectors"  # @param {type: "string"}

验证您的笔记本环境

  • 如果您使用 Colab 运行此笔记本,请取消注释以下单元格并继续。
  • 如果您使用 Vertex AI Workbench,请查看此处的设置说明。
# from google.colab import auth as google_auth

# google_auth.authenticate_user()

演示:BigQueryVectorStore

创建嵌入类实例

您可能需要在项目中启用 Vertex AI API,运行 gcloud services enable aiplatform.googleapis.com --project {PROJECT_ID} (将 {PROJECT_ID} 替换为您的项目名称)。 您可以使用任何 LangChain 嵌入模型
from langchain_google_vertexai import VertexAIEmbeddings

embedding = VertexAIEmbeddings(
    model_name="textembedding-gecko@latest", project=PROJECT_ID
)

初始化 BigQueryVectorStore

如果 BigQuery 数据集和表不存在,将自动创建。查看类定义此处以了解所有可选参数。
from langchain_google_community import BigQueryVectorStore

store = BigQueryVectorStore(
    project_id=PROJECT_ID,
    dataset_name=DATASET,
    table_name=TABLE,
    location=REGION,
    embedding=embedding,
)

添加文本

all_texts = ["Apples and oranges", "Cars and airplanes", "Pineapple", "Train", "Banana"]
metadatas = [{"len": len(t)} for t in all_texts]

store.add_texts(all_texts, metadatas=metadatas)

搜索文档

query = "I'd like a fruit."
docs = store.similarity_search(query)
print(docs)

按向量搜索文档

query_vector = embedding.embed_query(query)
docs = store.similarity_search_by_vector(query_vector, k=2)
print(docs)

带元数据过滤器的文档搜索

向量存储支持两种在搜索时对元数据字段应用过滤器的方法:
  • 基于字典的过滤器
    • 您可以传递一个字典(dict),其中键代表元数据字段,值指定过滤条件。此方法在键和对应值之间应用相等过滤器。当提供多个键值对时,它们使用逻辑 AND 操作组合。
  • 基于 SQL 的过滤器
    • 或者,您可以提供一个代表 SQL WHERE 子句的字符串来定义更复杂的过滤条件。这支持更大的灵活性,支持 SQL 表达式,如比较运算符和逻辑运算符。了解更多关于 BigQuery 运算符 的信息。
# Dictionary-based Filters
# This should only return "Banana" document.
docs = store.similarity_search_by_vector(query_vector, filter={"len": 6})
print(docs)
# SQL-based Filters
# This should return "Banana", "Apples and oranges" and "Cars and airplanes" documents.
docs = store.similarity_search_by_vector(query_vector, filter="len = 6 AND len > 17")
print(docs)

批量搜索

BigQueryVectorStore 提供了一个 batch_search 方法,用于可扩展的向量相似度搜索。
results = store.batch_search(
    embeddings=None,  # can pass embeddings or
    queries=["search_query", "search_query"],  # can pass queries
)

添加带嵌入的文本

您也可以使用 add_texts_with_embeddings 方法携带自己的嵌入。 这对于可能需要在嵌入生成前进行自定义预处理的多模态数据特别有用。
items = ["some text"]
embs = embedding.embed(items)

ids = store.add_texts_with_embeddings(
    texts=["some text"], embs=embs, metadatas=[{"len": 1}]
)

使用 Feature Store 进行低延迟服务

您只需使用 .to_vertex_fs_vector_store() 方法即可获得 VertexFSVectorStore 对象,该对象为在线用例提供低延迟。所有必填参数将自动从现有的 BigQueryVectorStore 类中转移。查看类定义以了解可以使用的所有其他参数。 使用 .to_bq_vector_store() 方法同样可以轻松返回 BigQueryVectorStore。
store.to_vertex_fs_vector_store()  # pass optional VertexFSVectorStore parameters as arguments