Update README.md
Browse files
README.md
CHANGED
@@ -29,31 +29,32 @@ this is the result of quantizing to 4 bits using [AutoGPTQ](https://github.com/P
|
|
29 |
|
30 |
**How to easily download and use this model in text-generation-webui** (tutorial by [TheBloke](https://huggingface.co/TheBloke))
|
31 |
|
32 |
-
<p align="center">Open [the text-generation-webui UI](https://github.com/oobabooga/text-generation-webui) as normal.</p>
|
33 |
|
34 |
-
|
35 |
|
36 |
-
|
37 |
|
38 |
-
|
39 |
|
40 |
-
|
41 |
|
42 |
-
|
43 |
|
44 |
-
|
45 |
|
46 |
-
|
47 |
|
48 |
-
|
49 |
|
50 |
-
|
51 |
|
52 |
-
|
53 |
|
54 |
-
|
55 |
|
56 |
-
|
|
|
|
|
57 |
|
58 |
|
59 |
|
@@ -67,39 +68,43 @@ This dataset cannot be used to create models that compete in any way with OpenAI
|
|
67 |
Finetuning
|
68 |
To fine-tune the BERTIN GPT-J-6B model we used the code available on BERTIN's fork of mesh-transformer-jax, which provides code adapt an Alpaca dataset to finetune any GPT-J-6B model. We run finetuning for 3 epochs using sequence length of 2048 on a single TPUv3-8 for 3 hours on top of BERTIN GPT-J-6B.
|
69 |
|
|
|
|
|
70 |
**español**
|
71 |
|
72 |
Esta es una versión GPTQ de 4 bits del [bertin-project/bertin-gpt-j-6B-alpaca]( https://huggingface.co/bertin-project/bertin-gpt-j-6B-alpaca)
|
73 |
|
74 |
Este es el resultado de cuantificar a 4 bits usando [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ).
|
75 |
|
76 |
-
** Cómo descargar y usar fácilmente este modelo en text-generation-webui** (tutorial de [TheBloke](https://huggingface.co/TheBloke))
|
77 |
-
|
78 |
-
Abra la interfaz de usuario [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui) normal.
|
79 |
-
|
80 |
-
aquí hay un tutorial de cómo instalar la interfaz de usuario text-generation-webui: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
|
81 |
-
|
82 |
-
Haga clic en la pestaña Modelo.
|
83 |
-
|
84 |
-
En Descargar modelo personalizado o LoRA, ingrese RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
|
85 |
-
|
86 |
-
Haz clic en Descargar.
|
87 |
-
|
88 |
-
Espera hasta que diga que ha terminado de descargarse.
|
89 |
-
|
90 |
-
Haga clic en el icono Actualizar junto a Modelo en la parte superior izquierda.
|
91 |
-
|
92 |
-
En el menú desplegable Modelo: elija el modelo que acaba de descargar, bertin-gpt-j-6B-alpaca-4bit-128g.
|
93 |
-
|
94 |
-
Si ve un error en la parte inferior derecha, ignórelo, es temporal.
|
95 |
-
|
96 |
-
Complete los parámetros GPTQ a la derecha: Bits = 4, Groupsize = 128, model_type = gptj
|
97 |
-
|
98 |
-
Haz clic en Guardar configuración para este modelo en la parte superior derecha.
|
99 |
-
|
100 |
-
Haga clic en Recargar el modelo en la parte superior derecha.
|
101 |
|
102 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
103 |
|
104 |
|
105 |
**Detalles del modelo**
|
|
|
29 |
|
30 |
**How to easily download and use this model in text-generation-webui** (tutorial by [TheBloke](https://huggingface.co/TheBloke))
|
31 |
|
|
|
32 |
|
33 |
+
Open [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui) as normal.
|
34 |
|
35 |
+
here is a tutorial how to install the text-generation-webui UI: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
|
36 |
|
37 |
+
Click the Model tab.
|
38 |
|
39 |
+
Under Download custom model or LoRA, enter RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
|
40 |
|
41 |
+
Click Download.
|
42 |
|
43 |
+
Wait until it says it's finished downloading.
|
44 |
|
45 |
+
Click the Refresh icon next to Model in the top left.
|
46 |
|
47 |
+
In the Model drop-down: choose the model you just downloaded, bertin-gpt-j-6B-alpaca-4bit-128g.
|
48 |
|
49 |
+
If you see an error in the bottom right, ignore it - it's temporary.
|
50 |
|
51 |
+
Fill out the GPTQ parameters on the right: Bits = 4, Groupsize = 128, model_type = gptj
|
52 |
|
53 |
+
Click Save settings for this model in the top right.
|
54 |
|
55 |
+
Click Reload the Model in the top right.
|
56 |
+
|
57 |
+
Once it says it's loaded, click the Text Generation tab and enter a prompt!
|
58 |
|
59 |
|
60 |
|
|
|
68 |
Finetuning
|
69 |
To fine-tune the BERTIN GPT-J-6B model we used the code available on BERTIN's fork of mesh-transformer-jax, which provides code adapt an Alpaca dataset to finetune any GPT-J-6B model. We run finetuning for 3 epochs using sequence length of 2048 on a single TPUv3-8 for 3 hours on top of BERTIN GPT-J-6B.
|
70 |
|
71 |
+
|
72 |
+
|
73 |
**español**
|
74 |
|
75 |
Esta es una versión GPTQ de 4 bits del [bertin-project/bertin-gpt-j-6B-alpaca]( https://huggingface.co/bertin-project/bertin-gpt-j-6B-alpaca)
|
76 |
|
77 |
Este es el resultado de cuantificar a 4 bits usando [AutoGPTQ](https://github.com/PanQiWei/AutoGPTQ).
|
78 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
79 |
|
80 |
+
**Cómo descargar y usar fácilmente este modelo en text-generation-webui** (tutorial de [TheBloke](https://huggingface.co/TheBloke))
|
81 |
+
|
82 |
+
|
83 |
+
Abra la interfaz de usuario [the text-generation-webui UI]( https://github.com/oobabooga/text-generation-webui) normal.
|
84 |
+
|
85 |
+
aquí hay un tutorial de cómo instalar la interfaz de usuario text-generation-webui: [tutorial]( https://www.youtube.com/watch?v=lb_lC4XFedU&t).
|
86 |
+
|
87 |
+
Haga clic en la pestaña Modelo.
|
88 |
+
|
89 |
+
En Descargar modelo personalizado o LoRA, ingrese RedXeol/bertin-gpt-j-6B-alpaca-4bit-128g.
|
90 |
+
|
91 |
+
Haz clic en Descargar.
|
92 |
+
|
93 |
+
Espera hasta que diga que ha terminado de descargarse.
|
94 |
+
|
95 |
+
Haga clic en el icono Actualizar junto a Modelo en la parte superior izquierda.
|
96 |
+
|
97 |
+
En el menú desplegable Modelo: elija el modelo que acaba de descargar, bertin-gpt-j-6B-alpaca-4bit-128g.
|
98 |
+
|
99 |
+
Si ve un error en la parte inferior derecha, ignórelo, es temporal.
|
100 |
+
|
101 |
+
Complete los parámetros GPTQ a la derecha: Bits = 4, Groupsize = 128, model_type = gptj
|
102 |
+
|
103 |
+
Haz clic en Guardar configuración para este modelo en la parte superior derecha.
|
104 |
+
|
105 |
+
Haga clic en Recargar el modelo en la parte superior derecha.
|
106 |
+
|
107 |
+
Una vez que diga que está cargado, haga clic en la pestaña Generación de texto e ingrese un mensaje.
|
108 |
|
109 |
|
110 |
**Detalles del modelo**
|