Moonshot Kimi Chat Model 节点#
使用 Moonshot Kimi Chat Model 节点向 Kimi chat API 发送聊天请求并生成对话式响应。当你在工作流中需要 AI 聊天模型时,可以使用它。例如,你可以为助手提供能力、构建多步骤 AI 链,或生成可调采样和 token 设置的模型驱动内容。
凭据
你可以在这里找到此节点的身份验证信息。
子节点中的参数解析
子节点在使用表达式处理多个项目时的行为与其他节点不同。
大多数节点,包括根节点,接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 会依次解析为每个名称。
在子节点中,表达式始终解析为第一个项目。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 始终解析为第一个名称。
Operations 操作#
Generate chat response 生成聊天响应#
向所选 Kimi 模型发送聊天请求并返回模型响应。
Parameters 参数
- Model 模型(type: options, field:
model):用于生成补全的模型。默认值:kimi-k2.5。更多信息请参阅 Moonshot Kimi Chat API 文档。
Options 选项
- Frequency Penalty 频率惩罚(type: number, field:
frequencyPenalty):正值会根据 token 已有频率对新 token 施加惩罚,从而减少模型重复。默认值:0。 - Maximum number of tokens 最大令牌数(type: number, field:
maxTokens):补全可生成的最大令牌数。值为-1时使用模型默认值。令牌上限取决于所选模型。默认值:-1。 - Response format 响应格式(type: options, field:
responseFormat):模型响应的格式。默认值:text。 - Presence penalty 存在惩罚(type: number, field:
presencePenalty):正值会根据 token 是否已经在文本中出现来施加惩罚,从而提高模型讨论新主题的概率。默认值:0。 - Sampling temperature 采样温度(type: number, field:
temperature):控制随机性。值越低,输出越不随机;接近零时模型更具确定性。默认值:0.7。 - Timeout 超时(type: number, field:
timeout):请求允许的最大耗时,单位为毫秒。默认值:360000(六分钟)。 - Max retries 最大重试次数(type: number, field:
maxRetries):请求失败时允许的最大重试次数。默认值:2。 - Top P(type: number, field:
topP):控制多样性的核采样参数。值为 0.5 表示模型仅考虑一半的概率加权候选项。建议只调整 Top P 或 Sampling temperature 采样温度 其中之一,不要同时调整两者。默认值:1。
Templates and examples 模板和示例#
Related resources 相关资源#
有关该服务及可用模型选项的更多信息,请参阅 Moonshot Kimi Chat Model 文档。