RedXeol commited on
Commit
a5cb5fa
1 Parent(s): 0755fce

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +44 -39
README.md CHANGED
@@ -29,31 +29,32 @@ this is the result of quantizing to 4 bits using [AutoGPTQ](https://github.com/P
29
 
30
  **How to easily download and use this model in text-generation-webui** (tutorial by [TheBloke](https://huggingface.co/TheBloke))
31
 
32
- <p align="center">Open [the text-generation-webui UI](https://github.com/oobabooga/text-generation-webui) as normal.</p>
33
 
34
- <p align="center">Aquí tienes un tutorial sobre cómo instalar el UI de text-generation-webui: [tutorial](https://www.youtube.com/watch?v=lb_lC4XFedU&t).</p>
35
 
36
- <p align="center">Haz clic en la pestaña Model.</p>
37
 
38
- <p align="center">Bajo Download custom model or LoRA, ingresa RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.</p>
39
 
40
- <p align="center">Haz clic en Download.</p>
41
 
42
- <p align="center">Espera hasta que diga que la descarga ha finalizado.</p>
43
 
44
- <p align="center">Haz clic en el ícono Refresh junto a Model en la parte superior izquierda.</p>
45
 
46
- <p align="center">En el menú desplegable Model, elige el modelo que acabas de descargar, bertin-gpt-j-6B-alpaca-4bit-128g.</p>
47
 
48
- <p align="center">Si ves un error en la esquina inferior derecha, ignóralo, es temporal.</p>
49
 
50
- <p align="center">Completa los parámetros GPTQ a la derecha: Bits = 4, Groupsize = 128, model_type = gptj.</p>
51
 
52
- <p align="center">Haz clic en Save settings for this model en la parte superior derecha.</p>
53
 
54
- <p align="center">Haz clic en Reload the Model en la parte superior derecha.</p>
55
 
56
- <p align="center">Una vez que diga que se ha cargado, haz clic en la pestaña Text Generation y escribe un prompt.</p>
 
 
57
 
58
 
59
 
@@ -67,39 +68,43 @@ This dataset cannot be used to create models that compete in any way with OpenAI
67
  Finetuning
68
  To fine-tune the BERTIN GPT-J-6B model we used the code available on BERTIN's fork of mesh-transformer-jax, which provides code adapt an Alpaca dataset to finetune any GPT-J-6B model. We run finetuning for 3 epochs using sequence length of 2048 on a single TPUv3-8 for 3 hours on top of BERTIN GPT-J-6B.
69
 
 
 
70
  **español**
71
 
72
  Esta es una versión GPTQ de 4 bits del [bertin-project/bertin-gpt-j-6B-alpaca]( https://huggingface.co/bertin-project/bertin-gpt-j-6B-alpaca)
73
 
74
  Este es el resultado de cuantificar a 4 bits usando [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ).
75
 
76
- ** Cómo descargar y usar fácilmente este modelo en text-generation-webui** (tutorial de [TheBloke](https://huggingface.co/TheBloke))
77
-
78
- Abra la interfaz de usuario [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui) normal.
79
-
80
- aquí hay un tutorial de cómo instalar la interfaz de usuario text-generation-webui: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
81
-
82
- Haga clic en la pestaña Modelo.
83
-
84
- En Descargar modelo personalizado o LoRA, ingrese RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
85
-
86
- Haz clic en Descargar.
87
-
88
- Espera hasta que diga que ha terminado de descargarse.
89
-
90
- Haga clic en el icono Actualizar junto a Modelo en la parte superior izquierda.
91
-
92
- En el menú desplegable Modelo: elija el modelo que acaba de descargar, bertin-gpt-j-6B-alpaca-4bit-128g.
93
-
94
- Si ve un error en la parte inferior derecha, ignórelo, es temporal.
95
-
96
- Complete los parámetros GPTQ a la derecha: Bits = 4, Groupsize = 128, model_type = gptj
97
-
98
- Haz clic en Guardar configuración para este modelo en la parte superior derecha.
99
-
100
- Haga clic en Recargar el modelo en la parte superior derecha.
101
 
102
- Una vez que diga que está cargado, haga clic en la pestaña Generación de texto e ingrese un mensaje.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
103
 
104
 
105
  **Detalles del modelo**
 
29
 
30
  **How to easily download and use this model in text-generation-webui** (tutorial by [TheBloke](https://huggingface.co/TheBloke))
31
 
 
32
 
33
+ Open [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui) as normal.
34
 
35
+ here is a tutorial how to install the text-generation-webui UI: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
36
 
37
+ Click the Model tab.
38
 
39
+ Under Download custom model or LoRA, enter RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
40
 
41
+ Click Download.
42
 
43
+ Wait until it says it's finished downloading.
44
 
45
+ Click the Refresh icon next to Model in the top left.
46
 
47
+ In the Model drop-down: choose the model you just downloaded, bertin-gpt-j-6B-alpaca-4bit-128g.
48
 
49
+ If you see an error in the bottom right, ignore it - it's temporary.
50
 
51
+ Fill out the GPTQ parameters on the right: Bits = 4, Groupsize = 128, model_type = gptj
52
 
53
+ Click Save settings for this model in the top right.
54
 
55
+ Click Reload the Model in the top right.
56
+
57
+ Once it says it's loaded, click the Text Generation tab and enter a prompt!
58
 
59
 
60
 
 
68
  Finetuning
69
  To fine-tune the BERTIN GPT-J-6B model we used the code available on BERTIN's fork of mesh-transformer-jax, which provides code adapt an Alpaca dataset to finetune any GPT-J-6B model. We run finetuning for 3 epochs using sequence length of 2048 on a single TPUv3-8 for 3 hours on top of BERTIN GPT-J-6B.
70
 
71
+
72
+
73
  **español**
74
 
75
  Esta es una versión GPTQ de 4 bits del [bertin-project/bertin-gpt-j-6B-alpaca]( https://huggingface.co/bertin-project/bertin-gpt-j-6B-alpaca)
76
 
77
  Este es el resultado de cuantificar a 4 bits usando [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ).
78
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
79
 
80
+ **Cómo descargar y usar fácilmente este modelo en text-generation-webui** (tutorial de [TheBloke](https://huggingface.co/TheBloke))
81
+
82
+
83
+ Abra la interfaz de usuario [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui) normal.
84
+
85
+ aquí hay un tutorial de cómo instalar la interfaz de usuario text-generation-webui: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
86
+
87
+ Haga clic en la pestaña Modelo.
88
+
89
+ En Descargar modelo personalizado o LoRA, ingrese RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
90
+
91
+ Haz clic en Descargar.
92
+
93
+ Espera hasta que diga que ha terminado de descargarse.
94
+
95
+ Haga clic en el icono Actualizar junto a Modelo en la parte superior izquierda.
96
+
97
+ En el menú desplegable Modelo: elija el modelo que acaba de descargar, bertin-gpt-j-6B-alpaca-4bit-128g.
98
+
99
+ Si ve un error en la parte inferior derecha, ignórelo, es temporal.
100
+
101
+ Complete los parámetros GPTQ a la derecha: Bits = 4, Groupsize = 128, model_type = gptj
102
+
103
+ Haz clic en Guardar configuración para este modelo en la parte superior derecha.
104
+
105
+ Haga clic en Recargar el modelo en la parte superior derecha.
106
+
107
+ Una vez que diga que está cargado, haga clic en la pestaña Generación de texto e ingrese un mensaje.
108
 
109
 
110
  **Detalles del modelo**