Novaciano/La_Mejor_Mezcla-3.2-1B-Q5_K_M-GGUF

Este modelo se convirtió al formato GGUF desde Novaciano/La_Mejor_Mezcla-3.2-1B utilizando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulta la tarjeta del modelo original para obtener más detalles sobre el modelo.

1559d4be98b5a26edf62ee40695ececc-high

Mezcla

Esta es una mezcla de modelos de lenguaje pre-entrenados creado a partir de mergekit.

Detalles de la mezcla

Fue creado a partir de los que considero los mejores modelos que he usado de base para mis anteriores creaciones. Cada uno destaca en lo suyo:

  • Roleplay
  • GRPO
  • Uncensored
  • Abliterated
  • Gran cantidad de datasets inyectados

Método de Mezcla

Este modelo ha sido mezclado usando el método de mezcla Model Stock usando bunnycore/FuseChat-3.2-1B-Creative-RP como base.

Modelos Mezclados

Los siguientes modelos han sido incluidos en la mezcla:


Uso con llama.cpp

Instalar llama.cpp a través de brew (funciona en Mac y Linux)

brew install llama.cpp

Invoque el servidor llama.cpp o la CLI.

CLI:

llama-cli --hf-repo Novaciano/La_Mejor_Mezcla-3.2-1B-Q5_K_M-GGUF --hf-file la_mejor_mezcla-3.2-1b-q5_k_m.gguf -p "The meaning to life and the universe is"

Server:

llama-server --hf-repo Novaciano/La_Mejor_Mezcla-3.2-1B-Q5_K_M-GGUF --hf-file la_mejor_mezcla-3.2-1b-q5_k_m.gguf -c 2048

Nota: También puedes usar este punto de control directamente a través de los pasos de uso que se enumeran en el repositorio Llama.cpp.

Paso 1: Clona llama.cpp desde GitHub.

git clone https://github.com/ggerganov/llama.cpp

Paso 2: Vaya a la carpeta llama.cpp y compílela con el indicador LLAMA_CURL=1 junto con otros indicadores específicos del hardware (por ejemplo: LLAMA_CUDA=1 para GPU Nvidia en Linux).

cd llama.cpp && LLAMA_CURL=1 make

Paso 3: Ejecutar la inferencia a través del binario principal.

./llama-cli --hf-repo Novaciano/La_Mejor_Mezcla-3.2-1B-Q5_K_M-GGUF --hf-file la_mejor_mezcla-3.2-1b-q5_k_m.gguf -p "The meaning to life and the universe is"

o

./llama-server --hf-repo Novaciano/La_Mejor_Mezcla-3.2-1B-Q5_K_M-GGUF --hf-file la_mejor_mezcla-3.2-1b-q5_k_m.gguf -c 2048
Downloads last month
69
GGUF
Model size
1.5B params
Architecture
llama

5-bit

Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no pipeline_tag.

Model tree for Novaciano/La_Mejor_Mezcla-3.2-1B-Q5_K_M-GGUF

Quantized
(5)
this model

Datasets used to train Novaciano/La_Mejor_Mezcla-3.2-1B-Q5_K_M-GGUF