Skip to content

Hugging Face Inference Model 节点#

使用 Hugging Face Inference Model 节点来使用 Hugging Face 的模型。

在此页面上,您将找到 Hugging Face Inference Model 节点的节点参数和更多资源的链接。

此节点缺乏工具支持,因此无法与 AI Agent 节点一起使用。请将其与 Basic LLM Chain 节点连接。

凭据

您可以在 这里 找到此节点的身份验证信息。

子节点中的参数解析

子节点在使用表达式处理多个项目时的行为与其他节点不同。

大多数节点,包括根节点,接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 会依次解析为每个名称。

在子节点中,表达式始终解析为第一个项目。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 始终解析为第一个名称。

节点参数#

  • Model 模型:选择用于生成补全的模型。

节点选项#

  • Custom Inference Endpoint 自定义推理端点:输入自定义推理端点 URL。
  • Frequency Penalty 频率惩罚:使用此选项控制模型重复自身的机会。较高的值会减少模型重复自身的机会。
  • Maximum Number of Tokens 最大令牌数:输入使用的最大令牌数,这设置了补全长度。
  • Presence Penalty 存在惩罚:使用此选项控制模型谈论新话题的机会。较高的值会增加模型谈论新话题的机会。
  • Sampling Temperature 采样温度:使用此选项控制采样过程的随机性。较高的温度会创建更多样化的采样,但会增加幻觉的风险。
  • Top K:输入模型用于生成下一个令牌的令牌选择数。
  • Top P:使用此选项设置补全应使用的概率。使用较低的值忽略不太可能的选项。

模板和示例#

Use an open-source LLM (via HuggingFace)

by n8n Team

View template details
🤖 AI content generation for Auto Service 🚘 Automate your social media📲!

by N8ner

View template details
Turn BBC News Articles into Podcasts using Hugging Face and Google Gemini

by Onur

View template details
Browse Hugging Face 推理模型 integration templates, or search all templates

相关资源#

请参考 LangChain 的 Hugging Face Inference Model 文档 获取有关该服务的更多信息。

查看 n8n 的高级 AI文档。

AI 术语表#

  • completion(完成/补全): 完成是由 GPT 等模型生成的响应。
  • hallucinations(幻觉): AI 中的幻觉是指大语言模型(LLM)错误地感知到不存在的模式或对象。
  • vector database(向量数据库): 向量数据库存储信息的数学表示。与嵌入和检索器一起使用,创建 AI 在回答问题时可以访问的数据库。
  • vector store(向量存储): 向量存储或向量数据库,存储信息的数学表示。与嵌入和检索器一起使用,创建 AI 在回答问题时可以访问的数据库。