--- license: mit --- 使用[Qwen2.5-14B-scipy](https://huggingface.co/zgce/Qwen2.5-14B-scipy)为底,数据使用[lima-erp](https://huggingface.co/datasets/zgce/lima-erp)的LoRA。 训练结果是一直都没有收敛,Loss总是在2.5~2.3之前,是个失败的产物。