-
Notifications
You must be signed in to change notification settings - Fork 41
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
如何微调提升特定领域知识 #20
Comments
而且感觉好像多卡和单卡速度是一样的,既没有模型并行也没有数据并行,多卡并没有加速训练 Epoch 11: 0%| | 1/1000 [00:01<24:15, 1.46s/it, loss=0.0368, lr=1e-5, REAL it/s=0.683, Kt/s=0.350] 整体看下来训练速度和其他LLM模型相比感觉很慢 |
迭代超过10次以上就出现了明显的过拟合,基模型能力基本丧失 Q: 三克贾科虫的颜色 Q: 三克贾科虫的发布时间 Q: 三克贾科虫的四款车型及价格 Q: 三克贾科虫的四款车型及价格 Q: 三克贾科虫的四款车型及价格有哪些 Q: +reset Q: 三克贾科虫的四款车型及价格 |
是的,Lora过程的灾难性遗忘太厉害。我跑了一晚上,总计6万个样本。第二天查看时,只会我样本领域的知识,常规知识基本忘光了。 |
多卡训练的时候每张卡上的microbatch size不变,总的batch扩大了。Gtoken/s会增加。 |
Lora原论文: |
请问这个问题解决了吗,我现在也遇到一些问题,lora微调后模型学到的知识效果也很差,经常产生幻觉,比如一些参数性信息,比如,一个物体的尺寸,经常开始瞎报,训练时可能是5.4厘米,推理时可能是其它尺寸。 |
数据集https://huggingface.co/datasets/databricks/databricks-dolly-15k
训练精度:bf16
参数:
--lora_r 8
--lora_alpha 32
--lora_dropout 0.01 \
epoch-steps:1000
epoch-count:20
• 3B模型RWKV-4-Raven-3B-v12-Eng49%-Chn49%-Jpn1%-Other1%-20230527-ctx4096.pth
• lora模型整体并没有丧失基模型能力
• lora模型简单学习到了很少一部分databricks-dolly-15k数据集的知识,看起来不多
• 7B模型RWKV-4-Raven-7B-v12-Eng49%-Chn49%-Jpn1%-Other1%-20230530-ctx8192.pth
• lora模型有点丧失基模型能力
• lora模型整体变的混乱,无法有效回答atabricks-dolly-15k数据集的知识
• lora模型对于重复性问题回答比较跳跃
如上所示,指定databricks-dolly-15k数据集lora微调raven-3b和7b模型,发现结果并不理想,无法学习到新的数据集知识且可能对基模型能力产生不好的影响
如果需要对特定领域知识(可能是一个简单的问答客服)进行微调,是否lora是一种选择,还是说用prompt或langchain外挂语料的方式更好
@Blealtan
The text was updated successfully, but these errors were encountered: