- 一个简单示例,展示如何使用 MariTalk 执行任务。
- LLM + RAG:第二个示例展示如何回答一个答案存在于长文档中的问题,而该文档超出了 MariTalk 的 token 限制。为此,我们将使用一个简单的搜索器(BM25)首先在文档中检索最相关的段落,然后将其提供给 MariTalk 进行回答。
安装
首先,使用以下命令安装 LangChain 库(及其所有依赖项):API 密钥
您需要一个 API 密钥,可以从 chat.maritaca.ai(“Chaves da API” 部分)获取。示例 1 - 宠物名称建议
让我们定义语言模型 ChatMaritalk,并使用您的 API 密钥进行配置。流式生成
对于生成长文本的任务,例如创作长篇文章或翻译大型文档,边生成边接收响应(而非等待完整文本)可能更有优势。这使应用程序响应更快、效率更高,尤其是在生成文本较长时。我们提供两种方法来满足这一需求:一种是同步方式,另一种是异步方式。同步
异步
示例 2 - RAG + LLM:UNICAMP 2024 入学考试问答系统
在这个示例中,我们需要安装一些额外的库:加载数据库
第一步是创建一个包含招生简章信息的数据库。为此,我们将从 COMVEST 官网下载招生简章,并将提取的文本分割为 500 字符的窗口。创建搜索器
现在我们有了数据库,需要一个搜索器。在本示例中,我们将使用简单的 BM25 作为搜索系统,但这可以替换为任何其他搜索器(例如通过嵌入进行搜索)。组合搜索系统 + LLM
现在我们有了搜索器,只需实现一个指定任务的提示词并调用链即可。通过 MCP 将这些文档连接 到 Claude、VSCode 等,以获取实时答案。

