Alibaba Cloud Chat Model 节点#
Alibaba Cloud Chat Model 节点会将聊天提示词发送到 Alibaba Cloud 的对话模型,适用于高级 AI 链和 LangChain 集成。你可以用它生成对话式响应、将模型输出集成到工作流中,或使用自定义采样、重试和超时设置来运行提示词。
凭据
你可以在这里找到此节点的身份验证信息。
子节点中的参数解析
子节点在使用表达式处理多个项目时的行为与其他节点不同。
大多数节点,包括根节点,接受任意数量的项目作为输入,处理这些项目,并输出结果。您可以使用表达式引用输入项目,节点会依次为每个项目解析表达式。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 会依次解析为每个名称。
在子节点中,表达式始终解析为第一个项目。例如,给定五个 name 值的输入,表达式 {{ $json.name }} 始终解析为第一个名称。
Operations 操作#
Generate chat response 生成聊天响应#
使用选定的 Alibaba Cloud 模型生成聊天式响应。
Parameters 参数
- Model 模型(type: options, field:
model):用于生成补全的模型。关于可用模型的更多信息,请参阅 Alibaba Cloud:Alibaba Cloud Model Studio — Models。
Options 选项
- Frequency Penalty 频率惩罚(type: number, field:
frequencyPenalty):正值会根据新 token 目前出现的频率对其施加惩罚,从而降低模型逐字重复相同内容的概率。默认值:0。 - Maximum Number of Tokens 最大令牌数(type: number, field:
maxTokens):补全可生成的最大令牌数。该上限取决于所选模型。值为-1时使用模型默认上限。默认值:-1。 - Response Format 响应格式(type: options, field:
responseFormat):节点返回的输出格式,例如纯文本或结构化格式。默认值:text。 - Presence Penalty 存在惩罚(type: number, field:
presencePenalty):正值会根据新 token 是否已经在文本中出现来施加惩罚,从而增加模型讨论新主题的可能性。默认值:0。 - Sampling Temperature 采样温度(type: number, field:
temperature):控制随机性。值越低,输出越不随机;接近零时更具确定性。默认值:0.7。 - Timeout 超时(type: number, field:
timeout):请求被中止前允许的最长时间(毫秒)。默认值:360000。 - Max Retries 最大重试次数(type: number, field:
maxRetries):请求失败时允许的最大重试次数。默认值:2。 - Top P(type: number, field:
topP):控制多样性的核采样参数。0.5表示只考虑一半的概率质量。请调整 Top P 或 Sampling Temperature 采样温度 其中之一,不要同时调整两者。默认值:1。
Templates and examples 模板和示例#
Related resources 相关资源#
有关可用模型及其能力的更多信息,请参阅 Alibaba Cloud Model Studio — Models。