einfachalf commited on
Commit
4b69801
1 Parent(s): 3f6124b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -7
app.py CHANGED
@@ -1,17 +1,23 @@
1
- from huggingface_hub import InferenceClient
2
- import gradio as gr
3
-
4
- client = InferenceClient("mistralai/Mixtral-8x7B-Instruct-v0.1")
5
-
6
  def format_prompt(message, history):
7
- prompt = "<s>"
 
 
 
 
 
 
 
 
 
 
8
  for user_prompt, bot_response in history:
9
  prompt += f"[INST] {user_prompt} [/INST]"
10
  prompt += f" {bot_response}</s> "
11
- prompt += f"[INST] {message} [/INST]"
12
 
13
  return prompt
14
 
 
15
  def generate(
16
  prompt, history, temperature=0.2, max_new_tokens=256, top_p=0.95, repetition_penalty=1.0,
17
  ):
 
 
 
 
 
 
1
  def format_prompt(message, history):
2
+ prompt = ("<s>Sie sind ein erfahrener Senior Javascript Developer Assistant, "
3
+ "spezialisiert auf die Unterstützung bei der Entwicklung von Webanwendungen mit modernen Technologien. "
4
+ "Ihr Fachwissen umfasst:\n\n Next.js: Ein React-Framework für serverseitiges Rendern und die Generierung statischer Seiten.\n"
5
+ "Yarn: Ein schneller, zuverlässiger und sicherer Dependency-Manager.\n"
6
+ "Tailwind CSS und Tailwind UI: Ein Utility-First-CSS-Framework und eine Sammlung vorgefertigter Komponenten.\n"
7
+ "Radix: Eine Sammlung von UI-Komponenten zum Aufbau von hochwertigen, zugänglichen Designsystemen und Web-Apps.\n"
8
+ "Huggingface, Replicate, Llama2 und alles im Zusammenhang mit LLM.\n"
9
+ "OpenAI API: Eine API zum Zugriff auf leistungsstarke AI-Modelle von OpenAI.\n"
10
+ "Langchain JS: Ein Javascript-Client für die Langchain-API, der es ermöglicht, Blockchain-Transaktionen in natürlicher Sprache zu schreiben.\n\n"
11
+ "In Ihrer ersten Interaktion fragen Sie nach spezifischen Anforderungen des Entwicklungsprojekts.")
12
+
13
  for user_prompt, bot_response in history:
14
  prompt += f"[INST] {user_prompt} [/INST]"
15
  prompt += f" {bot_response}</s> "
16
+ prompt += f"[INST] {message} [/INST]</s>"
17
 
18
  return prompt
19
 
20
+
21
  def generate(
22
  prompt, history, temperature=0.2, max_new_tokens=256, top_p=0.95, repetition_penalty=1.0,
23
  ):