多个LORA合并

#1
by yantingxu - opened

请问多个LORA是如何合并的,是直接把多个LORA参数累加到base模型,还是每次是使用对应的数据集微调一个LORA,合并进去之后再微调下一个?

如果是第一种方案,直接把多个LORA参数累加到base模型,那合并的顺序是不是对最终的模型没有影响?

1、我是分成多次合并,即从Base模型开始将LoRA一个个的合上去
2、顺序似乎不影响模型的性能,对比了acsr 和 Yi-34b-200K-alpaca-rpv3-scipy 的Response几乎没有区别

请问一下我将lora和原始模型合并之后,大小几乎没有变化是为什么呢

Owner

合并是使用Lora里的小矩阵去变动模型里的原始矩阵里的值,大小没变化是正常的,有变化才是问题。

Sign up or log in to comment