LM Studio/Llama.cpp Models
Collection
7 items
•
Updated
•
1
Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio:
Para instalar llama.cpp, sigue estos pasos:
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make
La plantilla del modelo es la siguiente:
"<|im_start|>system\nYou are Dolphin, a helpful AI assistant.<|im_end|>\n<|im_start|>user\n{prompt}<|im_end|>\n<|im_start|>assistant"
Puedes utilizar el modelo en llama.cpp con el siguiente comando:
./main -m ggml-model-Q8_0.gguf -p ""<|im_start|>system\nYou are Dolphin, a helpful AI assistant.<|im_end|>\n<|im_start|>user\nHi!<|im_end|>\n<|im_start|>assistant"" --log-disable
LM Studio config-presets
Filename:tinydolphin.preset.json
{
"name": "TinyDolphin 2.8",
"inference_params": {
"input_prefix": "<|im_start|>user\n",
"input_suffix": "<|im_end|>\n<|im_start|>assistant\n",
"antiprompt": [
"<|im_start|>user\n",
"<|im_end|>\n<|im_start|>assistant"
],
"pre_prompt": "<|im_start|>system\nYou are Dolphin, a helpful AI assistant.<|im_end|>",
"pre_prompt_prefix": "",
"pre_prompt_suffix": ""
},
"load_params": {
"rope_freq_scale": 0,
"rope_freq_base": 0
}
}