File size: 1,046 Bytes
c2cd4f7
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
---
license: apache-2.0
---
# What is this?
arcee-aiがMistral-Small-24B-Instruct-2501にDeepSeek V3由来のデータを蒸留して作成した**非**思考モデル、[Arcee-Blitz](https://huggingface.co/arcee-ai/Arcee-Blitz)をGGUFフォーマットに変換したものです。

# imatrix dataset
日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
また、CUDA版llama.cppがbfloat16に対応したため、imatrixの算出は本来の数値精度であるBF16のモデルを使用して行いました。

# Chat template
```
[SYSTEM_PROMPT] ここにSystem Promptを書きます。[/SYSTEM_PROMPT][INST] ここにMessageを書きます。[/INST] 
```

# Environment
Windows版llama.cpp-b4514およびllama.cpp-b4524同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

# License
Apache 2.0

# Developer
Mistral AI & arcee-ai