AI 聊天bug 发送送聊天内容就报错了

问题描述 聊天模型选 gpt-3.5-turbo-0613 设置最大token数 4096 发送送聊天内容就报错了 This model's maximum context length is 4097 tokens. However, you requested 4104 tokens (8 in the messages, 4096 in the completion). Please reduce the le...

toms 发表与 2023-06-22 1258 浏览 1 回答
AI聊天怎么计费的, 上下文和角色指令的也算到计费里吗?

问题描述 这里写问题具体描述...

toms 发表与 2023-06-21 1034 浏览 2 回答

toms

120
积分
0
获赞数
0
粉丝数
2023-06-07 加入
×
🔝