Nichonauta
commited on
Commit
•
647aa80
1
Parent(s):
e75ac45
Update README.md
Browse files
README.md
CHANGED
@@ -1,51 +1,166 @@
|
|
1 |
---
|
2 |
-
base_model:
|
|
|
3 |
library_name: transformers
|
4 |
tags:
|
5 |
- llama-cpp
|
6 |
- gguf-my-repo
|
|
|
|
|
|
|
|
|
7 |
---
|
8 |
|
9 |
-
#
|
10 |
-
This model was converted to GGUF format from [`Nichonauta/pepita-2-2b-it-v2`](https://huggingface.co/Nichonauta/pepita-2-2b-it-v2) using llama.cpp via the ggml.ai's [GGUF-my-repo](https://huggingface.co/spaces/ggml-org/gguf-my-repo) space.
|
11 |
-
Refer to the [original model card](https://huggingface.co/Nichonauta/pepita-2-2b-it-v2) for more details on the model.
|
12 |
|
13 |
-
|
14 |
-
|
|
|
15 |
|
16 |
-
|
17 |
-
|
18 |
|
19 |
-
|
20 |
-
Invoke the llama.cpp server or the CLI.
|
21 |
|
22 |
-
|
23 |
-
```bash
|
24 |
-
llama-cli --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -p "The meaning to life and the universe is"
|
25 |
-
```
|
26 |
|
27 |
-
|
28 |
-
```bash
|
29 |
-
llama-server --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -c 2048
|
30 |
-
```
|
31 |
|
32 |
-
|
33 |
|
34 |
-
|
35 |
-
```
|
36 |
-
git clone https://github.com/ggerganov/llama.cpp
|
37 |
-
```
|
38 |
|
39 |
-
|
40 |
-
```
|
41 |
-
cd llama.cpp && LLAMA_CURL=1 make
|
42 |
-
```
|
43 |
|
44 |
-
Step 3: Run inference through the main binary.
|
45 |
```
|
46 |
-
|
47 |
-
|
48 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
49 |
```
|
50 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
51 |
```
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
+
base_model:
|
3 |
+
- google/gemma-2-2b-it
|
4 |
library_name: transformers
|
5 |
tags:
|
6 |
- llama-cpp
|
7 |
- gguf-my-repo
|
8 |
+
license: gemma
|
9 |
+
language:
|
10 |
+
- es
|
11 |
+
pipeline_tag: text-generation
|
12 |
---
|
13 |
|
14 |
+
# Modelo: **pepita-2-2b-it-v2**
|
|
|
|
|
15 |
|
16 |
+
**Novedades:**
|
17 |
+
- Entrenado con un dataset más pequeño pero de mejor calidad.
|
18 |
+
- Pequeños ajustes en el prompt base.
|
19 |
|
20 |
+
**Resultados:**
|
21 |
+
- Mejora la tasa de artículos de calidad de un 60% a un 99%.
|
22 |
|
23 |
+
![pepita.png](https://ollama.com/assets/nichonauta/pepita-2-2b-it-v1/c1568d3e-de0c-4ed6-914d-4bf9fbea2c49)
|
|
|
24 |
|
25 |
+
## Descripción
|
|
|
|
|
|
|
26 |
|
27 |
+
**pepita-2-2b-it-v2** es un modelo de lenguaje ajustado a partir del modelo base [**google/gemma-2-2b-it**](https://huggingface.co/google/gemma-2-2b-it) utilizando cuantización de 4 bits y adaptación LoRA (Low-Rank Adaptation). Este modelo está diseñado para generar artículos detallados en español, optimizado para ejecutarse en hardware con recursos limitados, como GPUs con menor memoria, gracias a las técnicas de compresión y optimización utilizadas.
|
|
|
|
|
|
|
28 |
|
29 |
+
El modelo ha sido ajustado para seguir instrucciones en formato de conversación, lo que lo hace adecuado para la generación de contenido estructurado en español.
|
30 |
|
31 |
+
## Prompt Base
|
|
|
|
|
|
|
32 |
|
33 |
+
(Nuevo) El modelo fue entrenado para seguir este **prompt base** al generar contenido:
|
|
|
|
|
|
|
34 |
|
|
|
35 |
```
|
36 |
+
Escribe un gran artículo muy extenso y detallado en Markdown con un tamaño de al menos mil palabras de longitud siguiendo estos pasos:
|
37 |
+
|
38 |
+
1. Escribe un título principal (#) que tenga entre 50 y 60 caracteres.
|
39 |
+
2. Escribe el subtítulo "Introducción" (##):
|
40 |
+
- Redacta un párrafo que introduzca el tema.
|
41 |
+
- Redacta un párrafo que introduzca el artículo.
|
42 |
+
3. Continúa con muchos subtítulos (##):
|
43 |
+
- Escribe varios párrafos largos y detallados.
|
44 |
+
- De ser necesario añade sub-subtítulos (###):
|
45 |
+
- Escribe varios párrafos largos y detallados.
|
46 |
+
4. Escribe el subtítulo "Conclusión" (##):
|
47 |
+
- Redacta varios párrafos.
|
48 |
+
|
49 |
+
Asegúrate de redactar en español utilizando explicaciones muy extensas y detalladas, manteniendo siempre un tono amigable. Resalta las palabras clave usando **negritas**. Es obligatorio que bajo cada subtítulo escribas al menos tres párrafos antes de pasar a un nuevo subtítulo.
|
50 |
+
|
51 |
+
Comienza inmediatamente con el título principal (#).
|
52 |
```
|
53 |
+
|
54 |
+
## Detalles Técnicos
|
55 |
+
|
56 |
+
- **Modelo base**: [google/gemma-2-2b-it](https://huggingface.co/google/gemma-2-2b-it)
|
57 |
+
- **Tamaño**: 2.2B parámetros
|
58 |
+
- **Cuantización**: 4-bit (NF4) usando la biblioteca `bitsandbytes`
|
59 |
+
- **Adaptación**: LoRA con 64 dimensiones (`r=64`), `lora_alpha=32` y `lora_dropout=0.05`
|
60 |
+
- **Tarea**: Modelo de lenguaje causal (Causal LM)
|
61 |
+
- **Idioma**: Español
|
62 |
+
- **Entrenamiento supervisado (SFT)**: Utiliza entrenamiento supervisado para ajuste fino
|
63 |
+
- **Tipo de modelo**: `AutoModelForCausalLM`
|
64 |
+
|
65 |
+
## Proceso de Conversión
|
66 |
+
|
67 |
+
El modelo fue convertido al formato GGUF desde **Nichonauta/pepita-2-2b-it-v2** utilizando `llama.cpp` a través del espacio GGUF-my-repo de ggml.ai. Para utilizar el modelo en formato GGUF, sigue los pasos detallados a continuación.
|
68 |
+
|
69 |
+
El modelo también está disponible para su uso en **LM Studio** y **Ollama**.
|
70 |
+
|
71 |
+
### Uso con llama.cpp
|
72 |
+
|
73 |
+
1. **Instalación**: Instala `llama.cpp` a través de brew (funciona en Mac y Linux):
|
74 |
+
|
75 |
+
```bash
|
76 |
+
brew install llama.cpp
|
77 |
+
```
|
78 |
+
|
79 |
+
2. **Uso con CLI**:
|
80 |
+
|
81 |
+
```bash
|
82 |
+
llama-cli --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -p "El significado de la vida y el universo es"
|
83 |
+
```
|
84 |
+
|
85 |
+
3. **Uso con servidor**:
|
86 |
+
|
87 |
+
```bash
|
88 |
+
llama-server --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -c 2048
|
89 |
+
```
|
90 |
+
|
91 |
+
### Uso en **LM Studio**
|
92 |
+
|
93 |
+
El modelo **pepita-2-2b-it-v2** está disponible para su uso en [**LM Studio**](https://lmstudio.ai/), una aplicación de escritorio que facilita la ejecución de modelos de lenguaje sin necesidad de configuraciones complejas. Para utilizar el modelo:
|
94 |
+
|
95 |
+
1. Descarga e instala **LM Studio** desde su sitio oficial.
|
96 |
+
2. Carga el modelo desde Hugging Face o en formato GGUF para su uso en el entorno de LM Studio.
|
97 |
+
3. Ejecuta consultas o prompts en el modelo fácilmente desde la interfaz gráfica de LM Studio.
|
98 |
+
|
99 |
+
### Uso en **Ollama**
|
100 |
+
|
101 |
+
El modelo también está disponible en [**Ollama**](https://ollama.com/nichonauta/pepita-2-2b-it-v2), una herramienta similar a LM Studio que permite interactuar con modelos de lenguaje de manera local. Sigue los pasos a continuación:
|
102 |
+
|
103 |
+
1. Instala Ollama desde su [página oficial](https://ollama.com).
|
104 |
+
2. Accede al modelo desde [Ollama - Nichonauta/pepita-2-2b-it-v2](https://ollama.com/nichonauta/pepita-2-2b-it-v2).
|
105 |
+
3. Ejecuta el modelo directamente en tu dispositivo.
|
106 |
+
|
107 |
+
## Configuración de Entrenamiento
|
108 |
+
|
109 |
+
- **Dataset**: El modelo fue entrenado con un dataset de instrucciones en formato conversacional siguiendo una plantilla de prompt para generar artículos extensos en Markdown en español.
|
110 |
+
|
111 |
+
## Uso
|
112 |
+
|
113 |
+
Este modelo está diseñado para generar artículos detallados en español siguiendo una plantilla estructurada. Puedes cargar el modelo directamente desde Hugging Face y comenzar a generar contenido con la siguiente estructura de prompt:
|
114 |
+
|
115 |
+
```python
|
116 |
+
from transformers import AutoTokenizer, AutoModelForCausalLM
|
117 |
+
|
118 |
+
model_id = "pepita-2-2b-it-v2"
|
119 |
+
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
120 |
+
model = AutoModelForCausalLM.from_pretrained(model_id)
|
121 |
+
|
122 |
+
prompt = "Escribe un gran artículo muy detallado en Markdown siguiendo estos pasos: ..."
|
123 |
+
|
124 |
+
inputs = tokenizer(prompt, return_tensors="pt")
|
125 |
+
outputs = model.generate(**inputs)
|
126 |
+
|
127 |
+
print(tokenizer.decode(outputs[0]))
|
128 |
```
|
129 |
+
|
130 |
+
### Aplicaciones
|
131 |
+
|
132 |
+
- **Generación de artículos**: Ideal para crear contenido en español siguiendo una estructura detallada.
|
133 |
+
- **Redacción automatizada**: Generación de texto extensivo y bien estructurado en español.
|
134 |
+
|
135 |
+
## Licencia y Cumplimiento
|
136 |
+
|
137 |
+
El modelo base se ajusta a la [Gemma Terms of Use](https://ai.google.dev/gemma/terms). Al utilizar, reproducir, modificar o distribuir este modelo, debes cumplir con los siguientes requisitos:
|
138 |
+
|
139 |
+
- **Distribución**: Incluir la cláusula de restricciones de uso y proporcionar una copia del acuerdo de licencia a todos los terceros destinatarios del modelo.
|
140 |
+
- **Modificaciones**: Cualquier modificación del modelo debe incluir un aviso prominente de que se ha modificado y seguir las restricciones de uso especificadas en la licencia.
|
141 |
+
- **Prohibiciones**: No usar el modelo para fines prohibidos especificados en la [Prohibited Use Policy](https://ai.google.dev/gemma/prohibited_use_policy).
|
142 |
+
|
143 |
+
## Resultados del Entrenamiento
|
144 |
+
|
145 |
+
- El modelo mostró una mejora continua en la pérdida a lo largo del entrenamiento.
|
146 |
+
|
147 |
+
## Limitaciones
|
148 |
+
|
149 |
+
- **Idioma**: El modelo está diseñado para el idioma español.
|
150 |
+
- **Datos de entrenamiento**: Limitado al dataset de entrenamiento proporcionado.
|
151 |
+
- **Cuantización**: La cuantización a 4 bits puede llevar a una ligera degradación en la calidad de las predicciones.
|
152 |
+
|
153 |
+
## Recursos
|
154 |
+
|
155 |
+
- **Modelo base**: [google/gemma-2-2b-it](https://huggingface.co/google/gemma-2-2b-it)
|
156 |
+
- **Repositorio de llama.cpp**: [GitHub - llama.cpp](https://github.com/ggerganov/llama.cpp)
|
157 |
+
- **Repositorio del modelo en Hugging Face**: [Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF](https://huggingface.co/Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF)
|
158 |
+
- **LM Studio**: [https://lmstudio.ai/](https://lmstudio.ai/)
|
159 |
+
- **Ollama - Nichonauta/pepita-2-2b-it-v2**: [https://ollama.com/nichonauta/pepita-2-2b-it-v2](https://ollama.com/nichonauta/pepita-2-2b-it-v2)
|
160 |
+
|
161 |
+
## Autores y Contribuciones
|
162 |
+
|
163 |
+
Este modelo fue ajustado por el equipo **Nichonauta**. Visítanos en:
|
164 |
+
|
165 |
+
- **YouTube**: [Nichonauta](https://www.youtube.com/@nichonauta)
|
166 |
+
- **Sitio web**: [https://nichonauta.com](https://nichonauta.com)
|