TinyDolphin-2.8-1.1b

Image

Requisitos

Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio:

Para instalar llama.cpp, sigue estos pasos:

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make

Uso del modelo

La plantilla del modelo es la siguiente:

"<|im_start|>system\nYou are Dolphin, a helpful AI assistant.<|im_end|>\n<|im_start|>user\n{prompt}<|im_end|>\n<|im_start|>assistant"

Puedes utilizar el modelo en llama.cpp con el siguiente comando:

./main -m ggml-model-Q8_0.gguf -p ""<|im_start|>system\nYou are Dolphin, a helpful AI assistant.<|im_end|>\n<|im_start|>user\nHi!<|im_end|>\n<|im_start|>assistant"" --log-disable

LM Studio config-presets

Filename:tinydolphin.preset.json

{
  "name": "TinyDolphin 2.8",
  "inference_params": {
    "input_prefix": "<|im_start|>user\n",
    "input_suffix": "<|im_end|>\n<|im_start|>assistant\n",
    "antiprompt": [
      "<|im_start|>user\n",
      "<|im_end|>\n<|im_start|>assistant"
    ],
    "pre_prompt": "<|im_start|>system\nYou are Dolphin, a helpful AI assistant.<|im_end|>",
    "pre_prompt_prefix": "",
    "pre_prompt_suffix": ""
  },
  "load_params": {
    "rope_freq_scale": 0,
    "rope_freq_base": 0
  }
}

Referencias

Downloads last month
81
GGUF
Model size
1.1B params
Architecture
llama

3-bit

4-bit

5-bit

6-bit

8-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .

Collection including HirCoir/TinyDolphin-2.8-1.1b-GGUF