是否有计划释放更长的context比如200K+?

#7
by william0014 - opened

感谢千问团队的贡献, qwen确实是一个好的LLM, 不过请问是否有计划放出更长的上下文支持, 因为在实际的agent开发中, 用户要处理一个复杂reflection任务,需要多轮交互时, 长的上下文会对最后的结果产生重大影响.

Sign up or log in to comment