File size: 1,046 Bytes
c2cd4f7 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 |
---
license: apache-2.0
---
# What is this?
arcee-aiがMistral-Small-24B-Instruct-2501にDeepSeek V3由来のデータを蒸留して作成した**非**思考モデル、[Arcee-Blitz](https://huggingface.co/arcee-ai/Arcee-Blitz)をGGUFフォーマットに変換したものです。
# imatrix dataset
日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
また、CUDA版llama.cppがbfloat16に対応したため、imatrixの算出は本来の数値精度であるBF16のモデルを使用して行いました。
# Chat template
```
[SYSTEM_PROMPT] ここにSystem Promptを書きます。[/SYSTEM_PROMPT][INST] ここにMessageを書きます。[/INST]
```
# Environment
Windows版llama.cpp-b4514およびllama.cpp-b4524同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
# License
Apache 2.0
# Developer
Mistral AI & arcee-ai |