聊天模型选 gpt-3.5-turbo-0613 设置最大token数 4096 发送送聊天内容就报错了 This model's maximum context length is 4097 tokens. However, you requested 4104 tokens (8 in the messages, 4096 in the completion). Please reduce the length of the messages or completion.
都是最新版
gpt-3.5-turbo 和 gpt-3.5-turbo-0613 不支持输出4096 tokens。 gpt-3.5-turbo-16k支持
我也输入了一个字就报错。 不支持的 那前端还得改下设置界面。
重新下载一份代码覆盖下,刚刚做了兼容
👍
gpt-3.5-turbo 和 gpt-3.5-turbo-0613 不支持输出4096 tokens。
gpt-3.5-turbo-16k支持
我也输入了一个字就报错。 不支持的 那前端还得改下设置界面。
重新下载一份代码覆盖下,刚刚做了兼容
👍