Felguk commited on
Commit
e87e36e
·
verified ·
1 Parent(s): d12434d

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -40
app.py CHANGED
@@ -9,16 +9,6 @@ from pydub import AudioSegment
9
  # Инициализация клиента для модели Felguk/Felguk-v0
10
  client = InferenceClient("Felguk/Felguk-v0")
11
 
12
- # Список доступных моделей
13
- MODELS = {
14
- "felguk v0": "Felguk/Felguk-v0",
15
- "chatgpt 4.0": "gpt-4", # Пример, замените на реальный API
16
- "claude 3.5": "claude-3.5", # Пример, замените на реальный API
17
- "qwen 2.5": "qwen-2.5", # Пример, замените на реальный API
18
- "deepseek": "deepseek", # Пример, замените на реальный API
19
- "le chat": "le-chat", # Пример, замените на реальный API
20
- }
21
-
22
  # Функция для обработки PDF
23
  def process_pdf(file):
24
  pdf_reader = PyPDF2.PdfReader(file)
@@ -54,13 +44,7 @@ def respond(
54
  temperature,
55
  top_p,
56
  file=None,
57
- model_name="felguk v0",
58
  ):
59
- # Выбор модели
60
- if model_name not in MODELS:
61
- yield "Ошибка: модель не найдена."
62
- return
63
-
64
  # Если загружен файл, обрабатываем его
65
  if file is not None:
66
  file_type = file.name.split(".")[-1].lower()
@@ -76,21 +60,16 @@ def respond(
76
  file_info = "Неизвестный тип файла"
77
  message += f"\n[Пользователь загрузил файл: {file.name}]\n{file_info}"
78
 
79
- # Генерация ответа в зависимости от модели
80
- if model_name == "felguk v0":
81
- # Используем текстовое завершение для модели Felguk/Felguk-v0
82
- response = client.text_generation(
83
- prompt=message,
84
- max_new_tokens=max_tokens,
85
- temperature=temperature,
86
- top_p=top_p,
87
- stream=True,
88
- )
89
- for token in response:
90
- yield token
91
- else:
92
- # Здесь можно добавить логику для других моделей
93
- yield f"Модель {model_name} пока не поддерживается."
94
 
95
  # Функция для сброса истории чата
96
  def reset_chat():
@@ -105,14 +84,6 @@ with gr.Blocks() as demo:
105
  with gr.Row():
106
  new_chat_button = gr.Button("Новый чат", variant="secondary")
107
 
108
- # Выбор модели
109
- with gr.Row():
110
- model_dropdown = gr.Dropdown(
111
- choices=list(MODELS.keys()),
112
- value="felguk v0",
113
- label="Выберите модель",
114
- )
115
-
116
  # Интерфейс чата
117
  chat_interface = gr.ChatInterface(
118
  respond,
@@ -128,7 +99,6 @@ with gr.Blocks() as demo:
128
  label="Top-p (nucleus sampling)",
129
  ),
130
  gr.File(label="Загрузите файл (опционально)"), # Поле для загрузки файлов
131
- model_dropdown, # Выбор модели
132
  ],
133
  )
134
 
 
9
  # Инициализация клиента для модели Felguk/Felguk-v0
10
  client = InferenceClient("Felguk/Felguk-v0")
11
 
 
 
 
 
 
 
 
 
 
 
12
  # Функция для обработки PDF
13
  def process_pdf(file):
14
  pdf_reader = PyPDF2.PdfReader(file)
 
44
  temperature,
45
  top_p,
46
  file=None,
 
47
  ):
 
 
 
 
 
48
  # Если загружен файл, обрабатываем его
49
  if file is not None:
50
  file_type = file.name.split(".")[-1].lower()
 
60
  file_info = "Неизвестный тип файла"
61
  message += f"\n[Пользователь загрузил файл: {file.name}]\n{file_info}"
62
 
63
+ # Генерация ответа с использованием модели Felguk/Felguk-v0
64
+ response = client.text_generation(
65
+ prompt=message,
66
+ max_new_tokens=max_tokens,
67
+ temperature=temperature,
68
+ top_p=top_p,
69
+ stream=True,
70
+ )
71
+ for token in response:
72
+ yield token
 
 
 
 
 
73
 
74
  # Функция для сброса истории чата
75
  def reset_chat():
 
84
  with gr.Row():
85
  new_chat_button = gr.Button("Новый чат", variant="secondary")
86
 
 
 
 
 
 
 
 
 
87
  # Интерфейс чата
88
  chat_interface = gr.ChatInterface(
89
  respond,
 
99
  label="Top-p (nucleus sampling)",
100
  ),
101
  gr.File(label="Загрузите файл (опционально)"), # Поле для загрузки файлов
 
102
  ],
103
  )
104