Skip to content

OpenAI Chat Model 节点#

使用 OpenAI Chat Model 节点将 OpenAI 的聊天模型与对话 代理 一起使用。

在此页面上,您将找到 OpenAI Chat Model 节点的节点参数和更多资源的链接。

凭据

您可以在 这里 找到此节点的身份验证信息。

子节点中的参数解析

子节点在使用表达式处理多个项目时的行为与其他节点不同。

大多数节点,包括根节点,接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 会依次解析为每个名称。

在子节点中,表达式始终解析为第一个项目。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 始终解析为第一个名称。

Node parameters 节点参数#

Model 模型#

选择用于生成完成的模型。

n8n 从 OpenAI 动态加载模型,你只会看到你的账户可用的模型。

Use Responses API 使用 Responses API#

OpenAI 提供两个端点用于从模型生成输出: - Chat Completions:Chat Completions API 端点从构成对话的消息列表生成模型响应。该 API 要求用户手动处理对话状态,例如通过添加 Simple Memory 子节点。对于新项目,OpenAI 建议使用 Responses API。 - Responses:Responses API 是一个代理循环,允许模型在一个 API 请求的范围内调用多个内置工具。它还通过传递 conversation_id 支持持久对话。

Use Responses API 使用 Responses API#

OpenAI 提供两个端点用于从模型生成输出: - Chat Completions:Chat Completions API 端点从构成对话的消息列表生成模型响应。该 API 要求用户手动处理对话状态,例如通过添加 Simple Memory 子节点。对于新项目,OpenAI 建议使用 Responses API。 - Responses:Responses API 是一个代理循环,允许模型在一个 API 请求的范围内调用多个内置工具。它还通过传递 conversation_id 支持持久对话。

如果你希望模型使用 Responses API 生成输出,请切换到 Use Responses API 使用 Responses API。否则,OpenAI Chat Model 节点将默认使用 Chat Completions API。

有关 Chat Completions 和 Responses API 的比较,请参阅 OpenAI 文档。

Built-in Tools 内置工具#

OpenAI Responses API 提供一系列内置工具来丰富模型的响应。如果你希望模型能够访问以下内置工具,请切换到 Use Responses API 使用 Responses API

  • Web Search 网络搜索:允许模型在生成响应之前搜索网络以获取最新信息。
  • File Search 文件搜索:允许模型在生成响应之前从以前上传的文件中搜索你的知识库以获取相关信息。有关更多信息,请参阅 OpenAI 文档
  • Code Interpreter 代码解释器:允许模型在沙盒环境中编写和运行 Python 代码。

Use with AI Agent node 与 AI Agent 节点一起使用

内置工具仅在将 OpenAI Chat Model 节点与 AI Agent 节点结合使用时受支持。例如,将 OpenAI Chat Model 节点与 Basic LLM Chain 节点结合使用时,内置工具不可用。

Node options 节点选项#

使用这些选项可以进一步调整节点行为。无论你是否使用 Responses API 来生成模型输出,这些选项都可用。

Frequency Penalty 频率惩罚#

使用此选项控制模型重复自身的机会。较高的值会减少模型重复自身的机会。

Maximum Number of Tokens 最大令牌数#

输入使用的最大令牌数,用于设置完成长度。

Presence Penalty 存在惩罚#

使用此选项控制模型谈论新主题的机会。较高的值会增加模型谈论新主题的机会。

Sampling Temperature 采样温度#

使用此选项控制采样过程的随机性。较高的温度会创建更多样化的采样,但会增加幻觉的风险。

Timeout 超时#

输入最大请求时间(以毫秒为单位)。

Max Retries 最大重试次数#

输入重试请求的最大次数。

Top P 核采样#

使用此选项设置完成应使用的概率。使用较低的值以忽略不太可能的选项。

Additional node options (Responses API only) 其他节点选项(仅限 Responses API)#

切换到 Use Responses API 使用 Responses API 时,可以使用以下其他选项。

Conversation ID 对话 ID#

此响应所属的对话。此响应完成后,此响应的输入项和输出项将自动添加到此对话中。

Prompt Cache Key 提示缓存键#

使用此键缓存类似请求以优化缓存命中率。

Safety Identifier 安全标识符#

应用标识符来跟踪可能违反使用政策的用户。

Service Tier 服务层级#

选择适合你需求的服务层级:Auto、Flex、Default 或 Priority。

Metadata 元数据#

用于存储结构化信息的键值对集合。你可以将最多 16 个键值对附加到对象,这对于添加可通过 API 或仪表板搜索的自定义数据很有用。

Top Logprobs#

定义一个 0 到 20 之间的整数,指定在每个令牌位置返回的最可能令牌的数量,每个令牌都有一个关联的对数概率。

Output Format 输出格式#

选择响应格式:Text、JSON Schema 或 JSON Object。如果你想以 JSON 格式接收数据,建议使用 JSON Schema。

Prompt 提示#

配置包含唯一 ID、其版本和可替换变量的提示。提示通过 OpenAI 仪表板配置。

模板和示例#

Template widget placeholder.

相关资源#

有关该服务的更多信息,请参考 LangChains 的 OpenAI 文档

有关参数的更多信息,请参考 OpenAI 文档

查看 n8n 的高级 AI文档。

常见问题#

有关常见问题或问题和建议的解决方案,请参考 常见问题