Nichonauta commited on
Commit
647aa80
1 Parent(s): e75ac45

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +147 -32
README.md CHANGED
@@ -1,51 +1,166 @@
1
  ---
2
- base_model: Nichonauta/pepita-2-2b-it-v2
 
3
  library_name: transformers
4
  tags:
5
  - llama-cpp
6
  - gguf-my-repo
 
 
 
 
7
  ---
8
 
9
- # Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF
10
- This model was converted to GGUF format from [`Nichonauta/pepita-2-2b-it-v2`](https://huggingface.co/Nichonauta/pepita-2-2b-it-v2) using llama.cpp via the ggml.ai's [GGUF-my-repo](https://huggingface.co/spaces/ggml-org/gguf-my-repo) space.
11
- Refer to the [original model card](https://huggingface.co/Nichonauta/pepita-2-2b-it-v2) for more details on the model.
12
 
13
- ## Use with llama.cpp
14
- Install llama.cpp through brew (works on Mac and Linux)
 
15
 
16
- ```bash
17
- brew install llama.cpp
18
 
19
- ```
20
- Invoke the llama.cpp server or the CLI.
21
 
22
- ### CLI:
23
- ```bash
24
- llama-cli --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -p "The meaning to life and the universe is"
25
- ```
26
 
27
- ### Server:
28
- ```bash
29
- llama-server --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -c 2048
30
- ```
31
 
32
- Note: You can also use this checkpoint directly through the [usage steps](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) listed in the Llama.cpp repo as well.
33
 
34
- Step 1: Clone llama.cpp from GitHub.
35
- ```
36
- git clone https://github.com/ggerganov/llama.cpp
37
- ```
38
 
39
- Step 2: Move into the llama.cpp folder and build it with `LLAMA_CURL=1` flag along with other hardware-specific flags (for ex: LLAMA_CUDA=1 for Nvidia GPUs on Linux).
40
- ```
41
- cd llama.cpp && LLAMA_CURL=1 make
42
- ```
43
 
44
- Step 3: Run inference through the main binary.
45
  ```
46
- ./llama-cli --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -p "The meaning to life and the universe is"
47
- ```
48
- or
 
 
 
 
 
 
 
 
 
 
 
 
 
49
  ```
50
- ./llama-server --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -c 2048
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
51
  ```
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ base_model:
3
+ - google/gemma-2-2b-it
4
  library_name: transformers
5
  tags:
6
  - llama-cpp
7
  - gguf-my-repo
8
+ license: gemma
9
+ language:
10
+ - es
11
+ pipeline_tag: text-generation
12
  ---
13
 
14
+ # Modelo: **pepita-2-2b-it-v2**
 
 
15
 
16
+ **Novedades:**
17
+ - Entrenado con un dataset más pequeño pero de mejor calidad.
18
+ - Pequeños ajustes en el prompt base.
19
 
20
+ **Resultados:**
21
+ - Mejora la tasa de artículos de calidad de un 60% a un 99%.
22
 
23
+ ![pepita.png](https://ollama.com/assets/nichonauta/pepita-2-2b-it-v1/c1568d3e-de0c-4ed6-914d-4bf9fbea2c49)
 
24
 
25
+ ## Descripción
 
 
 
26
 
27
+ **pepita-2-2b-it-v2** es un modelo de lenguaje ajustado a partir del modelo base [**google/gemma-2-2b-it**](https://huggingface.co/google/gemma-2-2b-it) utilizando cuantización de 4 bits y adaptación LoRA (Low-Rank Adaptation). Este modelo está diseñado para generar artículos detallados en español, optimizado para ejecutarse en hardware con recursos limitados, como GPUs con menor memoria, gracias a las técnicas de compresión y optimización utilizadas.
 
 
 
28
 
29
+ El modelo ha sido ajustado para seguir instrucciones en formato de conversación, lo que lo hace adecuado para la generación de contenido estructurado en español.
30
 
31
+ ## Prompt Base
 
 
 
32
 
33
+ (Nuevo) El modelo fue entrenado para seguir este **prompt base** al generar contenido:
 
 
 
34
 
 
35
  ```
36
+ Escribe un gran artículo muy extenso y detallado en Markdown con un tamaño de al menos mil palabras de longitud siguiendo estos pasos:
37
+
38
+ 1. Escribe un título principal (#) que tenga entre 50 y 60 caracteres.
39
+ 2. Escribe el subtítulo "Introducción" (##):
40
+ - Redacta un párrafo que introduzca el tema.
41
+ - Redacta un párrafo que introduzca el artículo.
42
+ 3. Continúa con muchos subtítulos (##):
43
+ - Escribe varios párrafos largos y detallados.
44
+ - De ser necesario añade sub-subtítulos (###):
45
+ - Escribe varios párrafos largos y detallados.
46
+ 4. Escribe el subtítulo "Conclusión" (##):
47
+ - Redacta varios párrafos.
48
+
49
+ Asegúrate de redactar en español utilizando explicaciones muy extensas y detalladas, manteniendo siempre un tono amigable. Resalta las palabras clave usando **negritas**. Es obligatorio que bajo cada subtítulo escribas al menos tres párrafos antes de pasar a un nuevo subtítulo.
50
+
51
+ Comienza inmediatamente con el título principal (#).
52
  ```
53
+
54
+ ## Detalles Técnicos
55
+
56
+ - **Modelo base**: [google/gemma-2-2b-it](https://huggingface.co/google/gemma-2-2b-it)
57
+ - **Tamaño**: 2.2B parámetros
58
+ - **Cuantización**: 4-bit (NF4) usando la biblioteca `bitsandbytes`
59
+ - **Adaptación**: LoRA con 64 dimensiones (`r=64`), `lora_alpha=32` y `lora_dropout=0.05`
60
+ - **Tarea**: Modelo de lenguaje causal (Causal LM)
61
+ - **Idioma**: Español
62
+ - **Entrenamiento supervisado (SFT)**: Utiliza entrenamiento supervisado para ajuste fino
63
+ - **Tipo de modelo**: `AutoModelForCausalLM`
64
+
65
+ ## Proceso de Conversión
66
+
67
+ El modelo fue convertido al formato GGUF desde **Nichonauta/pepita-2-2b-it-v2** utilizando `llama.cpp` a través del espacio GGUF-my-repo de ggml.ai. Para utilizar el modelo en formato GGUF, sigue los pasos detallados a continuación.
68
+
69
+ El modelo también está disponible para su uso en **LM Studio** y **Ollama**.
70
+
71
+ ### Uso con llama.cpp
72
+
73
+ 1. **Instalación**: Instala `llama.cpp` a través de brew (funciona en Mac y Linux):
74
+
75
+ ```bash
76
+ brew install llama.cpp
77
+ ```
78
+
79
+ 2. **Uso con CLI**:
80
+
81
+ ```bash
82
+ llama-cli --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -p "El significado de la vida y el universo es"
83
+ ```
84
+
85
+ 3. **Uso con servidor**:
86
+
87
+ ```bash
88
+ llama-server --hf-repo Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF --hf-file pepita-2-2b-it-v2-q4_0.gguf -c 2048
89
+ ```
90
+
91
+ ### Uso en **LM Studio**
92
+
93
+ El modelo **pepita-2-2b-it-v2** está disponible para su uso en [**LM Studio**](https://lmstudio.ai/), una aplicación de escritorio que facilita la ejecución de modelos de lenguaje sin necesidad de configuraciones complejas. Para utilizar el modelo:
94
+
95
+ 1. Descarga e instala **LM Studio** desde su sitio oficial.
96
+ 2. Carga el modelo desde Hugging Face o en formato GGUF para su uso en el entorno de LM Studio.
97
+ 3. Ejecuta consultas o prompts en el modelo fácilmente desde la interfaz gráfica de LM Studio.
98
+
99
+ ### Uso en **Ollama**
100
+
101
+ El modelo también está disponible en [**Ollama**](https://ollama.com/nichonauta/pepita-2-2b-it-v2), una herramienta similar a LM Studio que permite interactuar con modelos de lenguaje de manera local. Sigue los pasos a continuación:
102
+
103
+ 1. Instala Ollama desde su [página oficial](https://ollama.com).
104
+ 2. Accede al modelo desde [Ollama - Nichonauta/pepita-2-2b-it-v2](https://ollama.com/nichonauta/pepita-2-2b-it-v2).
105
+ 3. Ejecuta el modelo directamente en tu dispositivo.
106
+
107
+ ## Configuración de Entrenamiento
108
+
109
+ - **Dataset**: El modelo fue entrenado con un dataset de instrucciones en formato conversacional siguiendo una plantilla de prompt para generar artículos extensos en Markdown en español.
110
+
111
+ ## Uso
112
+
113
+ Este modelo está diseñado para generar artículos detallados en español siguiendo una plantilla estructurada. Puedes cargar el modelo directamente desde Hugging Face y comenzar a generar contenido con la siguiente estructura de prompt:
114
+
115
+ ```python
116
+ from transformers import AutoTokenizer, AutoModelForCausalLM
117
+
118
+ model_id = "pepita-2-2b-it-v2"
119
+ tokenizer = AutoTokenizer.from_pretrained(model_id)
120
+ model = AutoModelForCausalLM.from_pretrained(model_id)
121
+
122
+ prompt = "Escribe un gran artículo muy detallado en Markdown siguiendo estos pasos: ..."
123
+
124
+ inputs = tokenizer(prompt, return_tensors="pt")
125
+ outputs = model.generate(**inputs)
126
+
127
+ print(tokenizer.decode(outputs[0]))
128
  ```
129
+
130
+ ### Aplicaciones
131
+
132
+ - **Generación de artículos**: Ideal para crear contenido en español siguiendo una estructura detallada.
133
+ - **Redacción automatizada**: Generación de texto extensivo y bien estructurado en español.
134
+
135
+ ## Licencia y Cumplimiento
136
+
137
+ El modelo base se ajusta a la [Gemma Terms of Use](https://ai.google.dev/gemma/terms). Al utilizar, reproducir, modificar o distribuir este modelo, debes cumplir con los siguientes requisitos:
138
+
139
+ - **Distribución**: Incluir la cláusula de restricciones de uso y proporcionar una copia del acuerdo de licencia a todos los terceros destinatarios del modelo.
140
+ - **Modificaciones**: Cualquier modificación del modelo debe incluir un aviso prominente de que se ha modificado y seguir las restricciones de uso especificadas en la licencia.
141
+ - **Prohibiciones**: No usar el modelo para fines prohibidos especificados en la [Prohibited Use Policy](https://ai.google.dev/gemma/prohibited_use_policy).
142
+
143
+ ## Resultados del Entrenamiento
144
+
145
+ - El modelo mostró una mejora continua en la pérdida a lo largo del entrenamiento.
146
+
147
+ ## Limitaciones
148
+
149
+ - **Idioma**: El modelo está diseñado para el idioma español.
150
+ - **Datos de entrenamiento**: Limitado al dataset de entrenamiento proporcionado.
151
+ - **Cuantización**: La cuantización a 4 bits puede llevar a una ligera degradación en la calidad de las predicciones.
152
+
153
+ ## Recursos
154
+
155
+ - **Modelo base**: [google/gemma-2-2b-it](https://huggingface.co/google/gemma-2-2b-it)
156
+ - **Repositorio de llama.cpp**: [GitHub - llama.cpp](https://github.com/ggerganov/llama.cpp)
157
+ - **Repositorio del modelo en Hugging Face**: [Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF](https://huggingface.co/Nichonauta/pepita-2-2b-it-v2-Q4_0-GGUF)
158
+ - **LM Studio**: [https://lmstudio.ai/](https://lmstudio.ai/)
159
+ - **Ollama - Nichonauta/pepita-2-2b-it-v2**: [https://ollama.com/nichonauta/pepita-2-2b-it-v2](https://ollama.com/nichonauta/pepita-2-2b-it-v2)
160
+
161
+ ## Autores y Contribuciones
162
+
163
+ Este modelo fue ajustado por el equipo **Nichonauta**. Visítanos en:
164
+
165
+ - **YouTube**: [Nichonauta](https://www.youtube.com/@nichonauta)
166
+ - **Sitio web**: [https://nichonauta.com](https://nichonauta.com)