推理速度很慢
#8
by
Octopath
- opened
看了一下模型是在GPU跑的,A100 的卡上推理快1分钟(其他类似规模大模型大约耗时3秒),do_sample=False的情况下也是1分钟。用的是示例代码。
您是怎么用的?给几个prompt参考一下
还有是如何能够输出完整?把已输出结果循环输入吗?
这个不是chat版本,哈哈哈哈
这个不是chat版本,而是语言模型续写的版本吧。
看了一下模型是在GPU跑的,A100 的卡上推理快1分钟(其他类似规模大模型大约耗时3秒),do_sample=False的情况下也是1分钟。用的是示例代码。
您是怎么用的?给几个prompt参考一下
还有是如何能够输出完整?把已输出结果循环输入吗?
这个不是chat版本,哈哈哈哈
这个不是chat版本,而是语言模型续写的版本吧。