File size: 276 Bytes
dad4b5b |
1 2 3 4 5 6 7 |
---
license: mit
---
使用[Qwen2.5-14B-scipy](https://huggingface.co/zgce/Qwen2.5-14B-scipy)为底,数据使用[lima-erp](https://huggingface.co/datasets/zgce/lima-erp)的LoRA。
训练结果是一直都没有收敛,Loss总是在2.5~2.3之前,是个失败的产物。 |