chatglm3系列仍未完全支持vllm

#52
by zzhdbw - opened

chatglm3系列仍未完全支持vllm,使用vllm0.4.0部署后回答仍然夹杂special token,相比之下qwen全系列支持vllm,希望开发者团队能够百忙之中对vllm进行兼容~,不胜感激!

你可以在请求参数中指定stop token id
例如: "stop_token_ids": [64790]

Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University org

下一代会完全支持

zRzRzRzRzRzRzR changed discussion status to closed

Sign up or log in to comment