Felguk commited on
Commit
b81bb3c
·
verified ·
1 Parent(s): 1262a8f

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +28 -10
app.py CHANGED
@@ -6,6 +6,9 @@ import cv2
6
  import numpy as np
7
  from pydub import AudioSegment
8
 
 
 
 
9
  # Функция для обработки PDF
10
  def process_pdf(file):
11
  pdf_reader = PyPDF2.PdfReader(file)
@@ -57,16 +60,31 @@ def respond(
57
  file_info = "Неизвестный тип файла"
58
  message += f"\n[Пользователь загрузил файл: {file.name}]\n{file_info}"
59
 
60
- # Генерация ответа с использованием модели Felguk/Felguk-v0
61
- response = client.text_generation(
62
- prompt=message,
63
- max_new_tokens=max_tokens,
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
64
  temperature=temperature,
65
  top_p=top_p,
66
- stream=True,
67
- )
68
- for token in response:
69
- yield token
70
 
71
  # Функция для сброса истории чата
72
  def reset_chat():
@@ -74,8 +92,8 @@ def reset_chat():
74
 
75
  # Создание интерфейса с использованием ChatInterface
76
  with gr.Blocks() as demo:
77
- gr.Markdown("# Felguk v0")
78
- gr.Markdown("Чат-бот Felguk v0. Задавайте вопросы и загружайте файлы (PDF, изображения, видео, аудио)!")
79
 
80
  # Кнопка "Новый чат"
81
  with gr.Row():
 
6
  import numpy as np
7
  from pydub import AudioSegment
8
 
9
+ # Инициализация клиента для модели HuggingFaceH4/zephyr-7b-beta
10
+ client = InferenceClient("HuggingFaceH4/zephyr-7b-beta")
11
+
12
  # Функция для обработки PDF
13
  def process_pdf(file):
14
  pdf_reader = PyPDF2.PdfReader(file)
 
60
  file_info = "Неизвестный тип файла"
61
  message += f"\n[Пользователь загрузил файл: {file.name}]\n{file_info}"
62
 
63
+ # Добавляем системное сообщение
64
+ messages = [{"role": "system", "content": system_message}]
65
+
66
+ # Добавляем историю сообщений
67
+ for val in history:
68
+ if val[0]:
69
+ messages.append({"role": "user", "content": val[0]})
70
+ if val[1]:
71
+ messages.append({"role": "assistant", "content": val[1]})
72
+
73
+ # Добавляем текущее сообщение пользователя
74
+ messages.append({"role": "user", "content": message})
75
+
76
+ # Генерация ответа с использованием модели HuggingFaceH4/zephyr-7b-beta
77
+ response = ""
78
+ for message in client.chat_completion(
79
+ messages,
80
+ max_tokens=max_tokens,
81
+ stream=True,
82
  temperature=temperature,
83
  top_p=top_p,
84
+ ):
85
+ token = message.choices[0].delta.content
86
+ response += token
87
+ yield response
88
 
89
  # Функция для сброса истории чата
90
  def reset_chat():
 
92
 
93
  # Создание интерфейса с использованием ChatInterface
94
  with gr.Blocks() as demo:
95
+ gr.Markdown("# Zephyr 7B Beta")
96
+ gr.Markdown("Чат-бот на основе модели HuggingFaceH4/zephyr-7b-beta. Задавайте вопросы и загружайте файлы (PDF, изображения, видео, аудио)!")
97
 
98
  # Кнопка "Новый чат"
99
  with gr.Row():