Skip to main content
Galaxia 是一个 GraphRAG 解决方案,可自动完成文档处理、知识库(图语言模型)创建和检索: galaxia-rag 要使用 Galaxia,首先请在此处上传文本并创建图语言模型:smabbler-cloud 模型构建并激活后,即可使用此集成进行检索。 模块仓库位于:github

集成详情

检索器自托管云端服务
Galaxia Retrieverlangchain-galaxia-retriever

设置

在进行任何检索之前,你需要在此处创建图语言模型:smabbler-cloud 按照以下三个简单步骤操作:rag-instruction 构建完成后不要忘记激活模型!

安装

该检索器在以下包中实现:pypi
pip install -qU langchain-galaxia-retriever

实例化

from langchain_galaxia_retriever.retriever import GalaxiaRetriever

gr = GalaxiaRetriever(
    api_url="beta.api.smabbler.com",
    api_key="<key>",  # you can find it here: https://beta.cloud.smabbler.com/user/account
    knowledge_base_id="<knowledge_base_id>",  # you can find it in https://beta.cloud.smabbler.com , in the model table
    n_retries=10,
    wait_time=5,
)

使用

result = gr.invoke("<test question>")
print(result)

在链中使用

# | output: false
# | echo: false

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(model="gpt-3.5-turbo-0125", temperature=0)
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough

prompt = ChatPromptTemplate.from_template(
    """Answer the question based only on the context provided.

Context: {context}

Question: {question}"""
)


def format_docs(docs):
    return "\n\n".join(doc.page_content for doc in docs)


chain = (
    {"context": gr | format_docs, "question": RunnablePassthrough()}
    | prompt
    | llm
    | StrOutputParser()
)
chain.invoke("<test question>")

API 参考

有关 Galaxia Retriever 的更多信息,请查看其 GitHub 实现:github