Update app.py
Browse files
app.py
CHANGED
@@ -3,7 +3,7 @@ from transformers import AutoTokenizer, AutoModelForCausalLM
|
|
3 |
import gradio as gr
|
4 |
|
5 |
# Modellname und Hugging Face Token
|
6 |
-
model_name = "
|
7 |
hf_token = os.getenv("HF_TOKEN") # Token sicher aus den Secrets laden
|
8 |
|
9 |
# Tokenizer und Modell laden
|
@@ -26,8 +26,8 @@ interface = gr.Interface(
|
|
26 |
fn=generate_response,
|
27 |
inputs="text",
|
28 |
outputs="text",
|
29 |
-
title="
|
30 |
-
description="Gib einen Text ein, und das Modell generiert eine Antwort basierend auf LLaMA 3.2
|
31 |
)
|
32 |
|
33 |
# App starten
|
|
|
3 |
import gradio as gr
|
4 |
|
5 |
# Modellname und Hugging Face Token
|
6 |
+
model_name = "bartowski/Llama-3.2-3B-Instruct-uncensored-GGUF"
|
7 |
hf_token = os.getenv("HF_TOKEN") # Token sicher aus den Secrets laden
|
8 |
|
9 |
# Tokenizer und Modell laden
|
|
|
26 |
fn=generate_response,
|
27 |
inputs="text",
|
28 |
outputs="text",
|
29 |
+
title="LLaMA 3.2 3B Instruct Uncensored",
|
30 |
+
description="Gib einen Text ein, und das Modell generiert eine Antwort basierend auf LLaMA 3.2 3B Instruct Uncensored."
|
31 |
)
|
32 |
|
33 |
# App starten
|