Replies: 1 comment 4 replies
-
我自己数据集是近600条数据(包含你是谁,来自哪里及什么能力和领域专业数据等),采用的是epoch num 30 及 LR学习率 1e-3采用LoRA微调方法,其它参数没调整,qwen7B-chat UI上的Chat或者Evaluate等都还可以,chatglm3-6b-chat在UI Chat上仅对你是谁等问答有效,其它无效果, 但Evaluate的输出效果还是较明显。 供参考。 Issue list中有个对chatglm3-6b的lora微调参数的解决方法,设定lora_rank 32, epoches 30,利用self-cognition数据集进行微调的有效,但对于我自己的数据集缺无效。 看来学习率调整有很大作用,仅供参考。 |
Beta Was this translation helpful? Give feedback.
4 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
这是我定义的数据集,80条意义相同的问答,微调glm3,qwen7b都没有效果,这是为什么
希望大佬能教教我
Beta Was this translation helpful? Give feedback.
All reactions