fb700 commited on
Commit
0a4210f
·
1 Parent(s): 1336139

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -2
README.md CHANGED
@@ -17,10 +17,11 @@ ChatGLM-6B 是开源中英双语对话模型,本次训练基于ChatGLM-6B 的
17
  - 第三,在保留SFT阶段三分之一训练数据的同时,增加了30万条fitness数据,叠加RM模型,对ChatGLM-6B进行强化训练。
18
  - 成果,训练后在健康咨询,文档总结能力上不但强于chatglm-6b,而且部分能力上更是强于chatglm2-6b,配合“闻达”和“langchain-chatglm”等知识库项目,应用体验上对比chatglm-6b、chatglm2-6b和百川-7b均匀显著提升。
19
  - 性能,fp16运行时速度上比原模型提升20%.可以代替原有官方模型,大家可以fp16、int4、int8使用。
 
20
  - 协议
21
  - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
22
- - 授权方式,与原项目一致,未经过chatglm-6b原开发方允许,不得用于商业用途。详细见项目规定见原项目地址https://huggingface.co/THUDM/chatglm-6b
23
- - 本次训练在原项目上的训练由智能AI用户[帛凡]于2023年基于ChatGLM进行独立训练。(严禁售卖或者商业项目,任何通过此项目产生的知识仅用于参考,作者不承担任何责任)。
24
  - 百度网盘 https://pan.baidu.com/s/1l9q_7h8nGdelIwYlCbllMg?pwd=klhu (感谢网友 :宋小猫 提供分享)
25
  - 夸克网盘 https://pan.quark.cn/s/d947c6dbf592
26
  ## Usage1 16G及以上显存用下载压缩包即lora文件使用,可支持ChatGLM原生模型和LoRA微调后的模型
 
17
  - 第三,在保留SFT阶段三分之一训练数据的同时,增加了30万条fitness数据,叠加RM模型,对ChatGLM-6B进行强化训练。
18
  - 成果,训练后在健康咨询,文档总结能力上不但强于chatglm-6b,而且部分能力上更是强于chatglm2-6b,配合“闻达”和“langchain-chatglm”等知识库项目,应用体验上对比chatglm-6b、chatglm2-6b和百川-7b均匀显著提升。
19
  - 性能,fp16运行时速度上比原模型提升20%.可以代替原有官方模型,大家可以fp16、int4、int8使用。
20
+ - 兼容性,本项目全模型的运行方式与原模型一致。lora文件运行方式,建议在原模型chatglm-6b上运行,当上下文大于4k时可在chatglm2-6b上可以运行,进过测试有一定效果,但是效果不能完全发挥。
21
  - 协议
22
  - 本仓库的代码依照 Apache-2.0 协议开源,ChatGLM2-6B 模型的权重的使用则需要遵循 Model License。
23
+ - 授权方式,与原项目一致,未经过chatglm-6b原开发方允许,不得用于商业用途。详细见原项目相关规定,模型地址https://huggingface.co/THUDM/chatglm-6b
24
+ - 本次训练在原项目上的训练由智能AI用户[帛凡]于2023年基于ChatGLM-6b进行独立训练。(严禁售卖或者商业项目,任何通过此项目产生的知识仅用于参考,作者不承担任何责任)。
25
  - 百度网盘 https://pan.baidu.com/s/1l9q_7h8nGdelIwYlCbllMg?pwd=klhu (感谢网友 :宋小猫 提供分享)
26
  - 夸克网盘 https://pan.quark.cn/s/d947c6dbf592
27
  ## Usage1 16G及以上显存用下载压缩包即lora文件使用,可支持ChatGLM原生模型和LoRA微调后的模型