NextChat会话上下文记忆不连贯问题已解决,本文分享解决方案。
最近测试了不同模型的会话记忆能力,发现了一些问题。例如,模型有时会选择性无视上下文信息,即便该信息是必要的。deepseek 尤其明显,它对系统提示的遵循度较弱,经常忽略指令。今天我用 deepseek 进行了一次超长对话测试,发现即使对话长度未超过上下文限制,模型的记忆仍然出现了断层,不连贯。通过监控对话携带的消息和 ChatHistory 保存情况,我发现:在第一次对话中,模型正常携带了两条会话记录。
页:
[1]