OpenAI Chat Model 节点#
使用 OpenAI Chat Model 节点将 OpenAI 的聊天模型与对话 代理 一起使用。
在此页面上,您将找到 OpenAI Chat Model 节点的节点参数和更多资源的链接。
凭据
您可以在 这里 找到此节点的身份验证信息。
子节点中的参数解析
子节点在使用表达式处理多个项目时的行为与其他节点不同。
大多数节点,包括根节点,接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 会依次解析为每个名称。
在子节点中,表达式始终解析为第一个项目。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 始终解析为第一个名称。
节点参数#
Model 模型#
选择用于生成完成的模型。
n8n 从 OpenAI 动态加载模型,你只会看到你的账户可用的模型。
Built-in Tools 内置工具#
OpenAI Responses API 提供了一系列内置工具来丰富模型的响应:
- Web Search 网络搜索:允许模型在生成响应之前搜索网络以获取最新信息。
- MCP Servers MCP 服务器:允许模型连接到远程 MCP 服务器。在这里了解有关使用远程 MCP 服务器作为工具的更多信息。
- File Search 文件搜索:允许模型在生成响应之前从先前上传的文件搜索知识库中的相关信息。有关更多信息,请参考 OpenAI 文档。
- Code Interpreter 代码解释器:允许模型在沙盒环境中编写和运行 Python 代码。
节点选项#
使用这些选项进一步细化节点的行为。
Base URL 基础URL#
在此处输入 URL 以覆盖 API 的默认 URL。
Frequency Penalty 频率惩罚#
使用此选项控制模型重复自身的机会。较高的值会减少模型重复自身的机会。
Maximum Number of Tokens 最大令牌数#
输入使用的最大令牌数,这设置了完成长度。
Response Format 响应格式#
选择 Text 或 JSON。JSON 确保模型返回有效的 JSON。
Presence Penalty 存在惩罚#
使用此选项控制模型谈论新主题的机会。较高的值会增加模型谈论新主题的机会。
Sampling Temperature 采样温度#
使用此选项控制采样过程的随机性。较高的温度会创建更多样化的采样,但会增加幻觉的风险。
Timeout 超时#
输入最大请求时间(以毫秒为单位)。
Max Retries 最大重试次数#
输入重试请求的最大次数。
Top P#
使用此选项设置完成应使用的概率。使用较低的值来忽略不太可能的选项。
Conversation ID 对话 ID#
此响应所属的对话。此响应完成后,此响应的输入项和输出项将自动添加到此对话中。
Prompt Cache Key 提示缓存键#
使用此键缓存类似请求以优化缓存命中率。
Safety Identifier 安全标识符#
应用标识符来跟踪可能违反使用政策的用户。
Service Tier 服务层级#
选择适合你需求的服务层级:Auto、Flex、Default 或 Priority。
Metadata 元数据#
用于存储结构化信息的键值对集合。你可以将最多 16 个键值对附加到对象,这对于添加可通过 API 或仪表板搜索的自定义数据很有用。
Top Logprobs#
定义一个 0 到 20 之间的整数,指定在每个令牌位置返回的最可能令牌的数量,每个令牌都有一个关联的对数概率。
Output Format 输出格式#
选择响应格式:Text、JSON Schema 或 JSON Object。如果你想以 JSON 格式接收数据,建议使用 JSON Schema。
Prompt 提示#
配置填充有唯一 ID、其版本和可替换变量的提示。
Reasoning Effort 推理努力#
控制 AI 结果的推理级别:Low、Medium 或 High。
模板和示例#
相关资源#
有关该服务的更多信息,请参考 LangChains 的 OpenAI 文档。
有关参数的更多信息,请参考 OpenAI 文档。
查看 n8n 的高级 AI文档。
常见问题#
有关常见问题或问题和建议的解决方案,请参考 常见问题。