Skip to content

Hugging Face Inference Model 节点#

使用 Hugging Face Inference Model 节点来使用 Hugging Face 的模型。

在此页面上,您将找到 Hugging Face Inference Model 节点的节点参数和更多资源的链接。

此节点缺乏工具支持,因此无法与 AI Agent 节点一起使用。请将其与 Basic LLM Chain 节点连接。

凭据

您可以在 这里 找到此节点的身份验证信息。

子节点中的参数解析

子节点在使用表达式处理多个项目时的行为与其他节点不同。

大多数节点,包括根节点,接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 会依次解析为每个名称。

在子节点中,表达式始终解析为第一个项目。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 始终解析为第一个名称。

节点参数#

  • Model 模型:选择用于生成补全的模型。

节点选项#

  • Custom Inference Endpoint 自定义推理端点:输入自定义推理端点 URL。
  • Frequency Penalty 频率惩罚:使用此选项控制模型重复自身的机会。较高的值会减少模型重复自身的机会。
  • Maximum Number of Tokens 最大令牌数:输入使用的最大令牌数,这设置了补全长度。
  • Presence Penalty 存在惩罚:使用此选项控制模型谈论新话题的机会。较高的值会增加模型谈论新话题的机会。
  • Sampling Temperature 采样温度:使用此选项控制采样过程的随机性。较高的温度会创建更多样化的采样,但会增加幻觉的风险。
  • Top K:输入模型用于生成下一个令牌的令牌选择数。
  • Top P:使用此选项设置补全应使用的概率。使用较低的值忽略不太可能的选项。

模板和示例#

Browse Hugging Face Inference Model integration templates, or search all templates

相关资源#

请参考 LangChain 的 Hugging Face Inference Model 文档 获取有关该服务的更多信息。

查看 n8n 的高级 AI文档。