|
# 经过本人合成及量化的 7B/13B 模型 |
|
<hr> |
|
|
|
> #### 开这个仓,主要是为了给大家讲述使用方法,这玩意儿真得自己摸索啊。 |
|
|
|
### 直接使用方法 |
|
|
|
移动本仓库中的 `llama-7b-hf` 和 `llama-13b-hf` 两个文件夹,到你项目的 `./models` 文件下即可。该文件夹同时适用于 `llama.cpp` 和 `text-generation-webui`。 |
|
|
|
### DIY 使用方法 |
|
|
|
以 7B 为例: |
|
|
|
1. 在 models 文件下新建名为 `llama-7b-hf` 的文件夹,注意,此名字不可以随意修改 |
|
2. `llama-7b-hf` 下只需要有两个文件:`config.json` 和 `ggml-model-q4_0.bin` |
|
3. `config.json` 大家可以到基础库里面下载 |
|
4. `ggml-model-q4_0.bin` 就是你按照[教程](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/llama.cpp%E9%87%8F%E5%8C%96%E9%83%A8%E7%BD%B2#step-2-%E7%94%9F%E6%88%90%E9%87%8F%E5%8C%96%E7%89%88%E6%9C%AC%E6%A8%A1%E5%9E%8B)合成出来的最终文件 |
|
|
|
### 资料来源 |
|
|
|
7b 为我自己合成,13b 是从 https://huggingface.co/minlik/chinese-alpaca-13b-quantized 仓库里下载的。 |