Seikaijyu commited on
Commit
1b65b1b
·
verified ·
1 Parent(s): 6ff3bdd

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -1
README.md CHANGED
@@ -7,7 +7,7 @@ language:
7
  ### 说明
8
  此微调仅用于测试思维链,即CoT(Chain-of-Thought)的效果,而我在理解CoT时认为**CoT的重点在于思维发散**,所以我对CoT语料做了一些改进,我把这种改进后的CoT称为**DCoT(Divergent-Chain-of-Thought)**即发散性思维链。
9
 
10
- 此微调也用于测试这一改进,在进行state tuning微调之前我其实尝试过lora微调,但是指令遵循却不尽人意,语料和模型的契合度太高,初始loss就很低,导致可能模型学不到格式这一点,所以我最后state tuning这一方法进行微调,同时这也是保证RWKV模型对格式进行遵循的最好方法之一,并且它能保证模型不会因为微调而遗忘(因为不会微调模型本身权重)。
11
 
12
  ### 微调配置
13
  微调使用autodl上租赁的单卡A40 48G。
 
7
  ### 说明
8
  此微调仅用于测试思维链,即CoT(Chain-of-Thought)的效果,而我在理解CoT时认为**CoT的重点在于思维发散**,所以我对CoT语料做了一些改进,我把这种改进后的CoT称为**DCoT(Divergent-Chain-of-Thought)**即发散性思维链。
9
 
10
+ 此微调也用于测试这一改进,在进行state tuning微调之前我其实尝试过lora微调,但是指令遵循却不尽人意,语料和模型的契合度太高,初始loss就很低,导致可能模型学不到格式这一点,所以我最后决定使用state tuning这一peft方法进行微调,同时这也是保证RWKV模型对格式进行遵循的最好方法之一,并且它能保证模型不会因为微调而遗忘(因为不会微调模型本身权重)。
11
 
12
  ### 微调配置
13
  微调使用autodl上租赁的单卡A40 48G。