本 notebook 展示如何使用 PineconeRerank 通过 Pinecone 托管的重排序 API 实现两阶段向量检索重排序,如 langchain_pinecone/libs/pinecone/rerank.py 所示。
设置
安装langchain-pinecone 包。
凭证
设置您的 Pinecone API 密钥以使用重排序 API。实例化
使用PineconeRerank 按照与查询的相关性对文档列表进行重排序。
用法
使用 Top-N 重排序
指定top_n 以限制返回的文档数量。
使用自定义排序字段重排序
如果文档是字典格式或具有自定义字段,请使用rank_fields 指定排序字段。
使用附加参数重排序
可以将模型特定的参数(例如truncate)直接传递给 .rerank()。
用于处理超过模型支持长度的输入。可接受的值为:END 或 NONE。
END 在输入 token 限制处截断输入序列;NONE 在输入超过 token 限制时返回错误。
API 参考
PineconeRerank(model, top_n, rank_fields, return_documents).rerank(documents, query, rank_fields=None, model=None, top_n=None, truncate="END").compress_documents(documents, query)(返回元数据中包含relevance_score的Document对象)
将这些文档连接到 Claude、VSCode 等,通过 MCP 获取实时解答。

