Ollama Chat Model 节点#
Ollama Chat Model 节点允许您将本地 Llama 2 模型与对话 代理 一起使用。
在此页面上,您将找到 Ollama Chat Model 节点的节点参数和更多资源的链接。
凭据
您可以在 这里 找到此节点的身份验证信息。
子节点中的参数解析
子节点在使用表达式处理多个项目时的行为与其他节点不同。
大多数节点,包括根节点,接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name
值的输入,表达式 {{ $json.name }}
会依次解析为每个名称。
在子节点中,表达式始终解析为第一个项目。例如,给定五个 name
值的输入,表达式 {{ $json.name }}
始终解析为第一个名称。
节点参数#
- Model 模型:选择生成完成的模型。选择来自:
- Llama2
- Llama2 13B
- Llama2 70B
- Llama2 Uncensored
请参考 Ollama 模型库文档 获取有关可用模型的更多信息。
节点选项#
- Sampling Temperature 采样温度:使用此选项控制采样过程的随机性。较高的温度会创建更多样化的采样,但会增加幻觉的风险。
- Top K:输入模型用于生成下一个令牌的令牌选择数量。
- Top P:使用此选项设置完成应使用的概率。使用较低的值忽略不太可能的选项。
模板和示例#
相关资源#
请参考 LangChain 的 Ollama Chat Model 文档 获取有关该服务的更多信息。
查看 n8n 的高级 AI文档。
常见问题#
有关常见问题或问题和建议的解决方案,请参考 常见问题。
AI 术语表#
- completion(完成/补全): 完成是由 GPT 等模型生成的响应。
- hallucinations(幻觉): AI 中的幻觉是指大语言模型(LLM)错误地感知到不存在的模式或对象。
- vector database(向量数据库): 向量数据库存储信息的数学表示。与嵌入和检索器一起使用,创建 AI 在回答问题时可以访问的数据库。
- vector store(向量存储): 向量存储或向量数据库,存储信息的数学表示。与嵌入和检索器一起使用,创建 AI 在回答问题时可以访问的数据库。
自托管 AI 入门套件#
刚开始使用 AI 和自托管 n8n?尝试 n8n 的自托管 AI 入门套件,使用 Ollama、Qdrant 和 PostgreSQL 开始概念验证或演示游乐场。