Thank you very much for your excellent work!非常感谢您的出色的工作!
#1
by
wukongai
- opened
This can serve as a starter learning model!
这个可以作为一个入门的学习模型!
另外,能否提供一下q8、q16的gguf量化权重,我想在cpu上跑一下,肯定非常欢快!
另外,能否提供一下q8、q16的gguf量化权重,我想在cpu上跑一下,肯定非常欢快!
But t5 models seem not to be able to transfer to GGUF format.
t5模型应该不能gguf量化,至少llama.cpp对其没有支持
另外,能否提供一下q8、q16的gguf量化权重,我想在cpu上跑一下,肯定非常欢快!
暂时没有发布量化模型的计划,发布的是float32权重,可以直接在cpu上进行推理,200M的参数在cpu上推理已经很快了。如果有需要,你可以自己做量化(可能需要cuda设备),安装'bitsandbytes':
# linux:
pip install bitsandbytes
# windows
python -m pip install bitsandbytes --prefer-binary --extra-index-url=https://jllllll.github.io/bitsandbytes-windows-webui
8bit量化代码如下:
from transformers import AutoModelForSeq2SeqLM
model = AutoModelForSeq2SeqLM.from_pretrained('charent/ChatLM-mini-Chinese', trust_remote_code=True, device_map="auto", load_in_8bit=True)
model.save_pretrained('./model_8bit')
收到,谢谢!
请问一下,RLHF训练过程的奖励模型在哪里体现呢 ?
好兄弟这实在是泰裤辣❤❤❤!!!