Text Generation
GGUF
Japanese
mistral
mixtral
Merge
Mixture of Experts
Not-For-All-Audiences
nsfw
Inference Endpoints
Update README.md
Browse files
README.md
CHANGED
@@ -12,11 +12,12 @@ pipeline_tag: text-generation
|
|
12 |
# LightChatAssistant-2x7B-GGUF
|
13 |
|
14 |
[Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)をGGUF変換したものです。
|
15 |
-
iMatrixを併用して量子化しています。
|
|
|
16 |
|
17 |
## 量子化手順
|
18 |
|
19 |
-
以下の通りに実行しました。
|
20 |
```
|
21 |
python ./llama.cpp/convert.py ./LightChatAssistant-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf
|
22 |
./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32
|
|
|
12 |
# LightChatAssistant-2x7B-GGUF
|
13 |
|
14 |
[Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)をGGUF変換したものです。
|
15 |
+
iQ3_XXSはiMatrixを併用して量子化しています。(それ以外はiMatrix非適用です)
|
16 |
+
※製作者は本モデルを使うときはiQ3_XXSを使用しています。
|
17 |
|
18 |
## 量子化手順
|
19 |
|
20 |
+
以下の通りに実行しました。(iMatrixを併用してiQ3_XXSにする場合)
|
21 |
```
|
22 |
python ./llama.cpp/convert.py ./LightChatAssistant-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf
|
23 |
./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32
|