# 经过本人合成及量化的 7B/13B 模型
> #### 开这个仓,主要是为了给大家讲述使用方法,这玩意儿真得自己摸索啊。
### 直接使用方法
移动本仓库中的`llama-7b-hf`和`llama-13b-hf`两个文件夹,到你项目的`./models`文件下即可。该文件夹同时适用于`llama.cpp`和`text-generation-webui`。
### DIY 使用方法
以 7B 为例:
1. 在 models 文件下新建名为`llama-7b-hf`的文件夹,注意,此名字不可以随意修改
2. `llama-7b-hf`下只需要有两个文件:`config.json`和`ggml-model-q4_0.bin`
3. `config.json`大家可以到基础库里面下载
4. `ggml-model-q4_0.bin`就是你按照[教程](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/llama.cpp%E9%87%8F%E5%8C%96%E9%83%A8%E7%BD%B2#step-2-%E7%94%9F%E6%88%90%E9%87%8F%E5%8C%96%E7%89%88%E6%9C%AC%E6%A8%A1%E5%9E%8B)合成出来的最终文件
### 资料来源
7b 为我自己合成,13b 是从 https://huggingface.co/minlik/chinese-alpaca-13b-quantized 仓库里下载的。