Skip to content

Ollama Model 节点#

Ollama Model 节点允许您使用本地 Llama 2 模型。

在此页面上,您将找到 Ollama Model 节点的节点参数和更多资源的链接。

此节点缺乏工具支持,因此无法与 AI Agent 节点一起工作。相反,请将其与 Basic LLM Chain 节点连接。

凭据

您可以在 这里 找到此节点的身份验证信息。

子节点中的参数解析

子节点在使用表达式处理多个项目时的行为与其他节点不同。

大多数节点,包括根节点,接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 会依次解析为每个名称。

在子节点中,表达式始终解析为第一个项目。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 始终解析为第一个名称。

节点参数#

  • Model 模型:选择生成完成的模型。选择来自:
    • Llama2
    • Llama2 13B
    • Llama2 70B
    • Llama2 Uncensored

请参考 Ollama 模型库文档 获取有关可用模型的更多信息。

节点选项#

  • Sampling Temperature 采样温度:使用此选项控制采样过程的随机性。较高的温度会创建更多样化的采样,但会增加幻觉的风险。
  • Top K:输入模型用于生成下一个令牌的令牌选择数量。
  • Top P:使用此选项设置完成应使用的概率。使用较低的值忽略不太可能的选项。

模板和示例#

Template widget placeholder.

相关资源#

请参考 LangChain 的 Ollama 文档 获取有关该服务的更多信息。

查看 n8n 的高级 AI文档。

常见问题#

有关常见问题或问题和建议的解决方案,请参考 常见问题

自托管 AI 入门套件#

刚开始使用 AI 和自托管 n8n?尝试 n8n 的自托管 AI 入门套件,使用 Ollama、Qdrant 和 PostgreSQL 开始概念验证或演示游乐场。