Text Generation
GGUF
Japanese
mistral
mixtral
Merge
Mixture of Experts
Not-For-All-Audiences
nsfw
Inference Endpoints
Update README.md
Browse files
README.md
CHANGED
@@ -9,18 +9,18 @@ tags:
|
|
9 |
pipeline_tag: text-generation
|
10 |
---
|
11 |
|
12 |
-
#
|
13 |
|
14 |
-
[Sdff-Ltba/
|
15 |
iMatrixを併用して量子化しています。
|
16 |
|
17 |
## 量子化手順
|
18 |
|
19 |
以下の通りに実行しました。
|
20 |
```
|
21 |
-
python ./llama.cpp/convert.py ./
|
22 |
./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32
|
23 |
-
./llama.cpp/quantize --imatrix ./gguf-model_f16.imatrix ./gguf-model_f16.gguf ./
|
24 |
```
|
25 |
|
26 |
## 環境
|
|
|
9 |
pipeline_tag: text-generation
|
10 |
---
|
11 |
|
12 |
+
# LightChatAssistant-2x7B-GGUF
|
13 |
|
14 |
+
[Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)をGGUF変換したものです。
|
15 |
iMatrixを併用して量子化しています。
|
16 |
|
17 |
## 量子化手順
|
18 |
|
19 |
以下の通りに実行しました。
|
20 |
```
|
21 |
+
python ./llama.cpp/convert.py ./LightChatAssistant-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf
|
22 |
./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32
|
23 |
+
./llama.cpp/quantize --imatrix ./gguf-model_f16.imatrix ./gguf-model_f16.gguf ./LightChatAssistant-2x7B_iq3xxs.gguf iq3_xxs
|
24 |
```
|
25 |
|
26 |
## 環境
|