import gradio as gr from huggingface_hub import InferenceClient import PyPDF2 from PIL import Image import cv2 import numpy as np from pydub import AudioSegment from langdetect import detect # Инициализация клиента для модели HuggingFaceH4/zephyr-7b-beta client = InferenceClient("HuggingFaceH4/zephyr-7b-beta") # Функция для обработки PDF def process_pdf(file): pdf_reader = PyPDF2.PdfReader(file) text = "" for page in pdf_reader.pages: text += page.extract_text() return text # Функция для обработки изображений def process_image(file): image = Image.open(file) return f"Изображение: {image.size[0]}x{image.size[1]} пикселей, формат: {image.format}" # Функция для обработки видео def process_video(file): cap = cv2.VideoCapture(file.name) frame_count = int(cap.get(cv2.CAP_PROP_FRAME_COUNT)) duration = frame_count / cap.get(cv2.CAP_PROP_FPS) cap.release() return f"Видео: длительность {duration:.2f} секунд, {frame_count} кадров" # Функция для обработки аудио def process_audio(file): audio = AudioSegment.from_file(file) return f"Аудио: длительность {len(audio) / 1000:.2f} секунд, частота {audio.frame_rate} Гц" # Функция для определения языка текста def detect_language(text): try: return detect(text) except: return "en" # По умолчанию английский # Функция для обработки сообщений, истории и файлов def respond( message, history: list[tuple[str, str]], system_message, max_tokens, temperature, top_p, file=None, language="auto", ): # Если загружен файл, обрабатываем его if file is not None: file_type = file.name.split(".")[-1].lower() if file_type == "pdf": file_info = process_pdf(file) elif file_type in ["jpg", "jpeg", "png", "bmp", "gif"]: file_info = process_image(file) elif file_type in ["mp4", "avi", "mov"]: file_info = process_video(file) elif file_type in ["mp3", "wav", "ogg"]: file_info = process_audio(file) else: file_info = "Неизвестный тип файла" message += f"\n[Пользователь загрузил файл: {file.name}]\n{file_info}" # Определяем язык сообщения if language == "auto": language = detect_language(message) else: language = language # Добавляем системное сообщение с учетом языка if language == "ru": system_message = "Вы дружелюбный чат-бот, который понимает русский язык." elif language == "en": system_message = "You are a friendly chatbot that understands English." elif language == "es": system_message = "Eres un chatbot amigable que entiende español." elif language == "fr": system_message = "Vous êtes un chatbot sympathique qui comprend le français." elif language == "de": system_message = "Sie sind ein freundlicher Chatbot, der Deutsch versteht." else: system_message = "You are a friendly chatbot." # Добавляем системное сообщение messages = [{"role": "system", "content": system_message}] # Добавляем историю сообщений for val in history: if val[0]: messages.append({"role": "user", "content": val[0]}) if val[1]: messages.append({"role": "assistant", "content": val[1]}) # Добавляем текущее сообщение пользователя messages.append({"role": "user", "content": message}) # Генерация ответа с использованием модели HuggingFaceH4/zephyr-7b-beta response = "" for message in client.chat_completion( messages, max_tokens=max_tokens, stream=True, temperature=temperature, top_p=top_p, ): token = message.choices[0].delta.content response += token yield response # Функция для сброса истории чата def reset_chat(): return [] # Создание интерфейса с использованием ChatInterface with gr.Blocks() as demo: gr.Markdown("# Felguk v0") gr.Markdown("Чат-бот Felguk v0. Поддерживает несколько языков. Задавайте вопросы и загружайте файлы (PDF, изображения, видео, аудио)!") # Кнопка "Новый чат" with gr.Row(): new_chat_button = gr.Button("Новый чат", variant="secondary") # Выбор языка with gr.Row(): language_dropdown = gr.Dropdown( choices=["auto", "en", "ru", "es", "fr", "de"], value="auto", label="Выберите язык (или оставьте 'auto' для автоматического определения)", ) # Интерфейс чата chat_interface = gr.ChatInterface( respond, additional_inputs=[ gr.Textbox(value="You are a friendly Chatbot.", label="System message"), gr.Slider(minimum=1, maximum=2048, value=512, step=1, label="Max new tokens"), gr.Slider(minimum=0.1, maximum=4.0, value=0.7, step=0.1, label="Temperature"), gr.Slider( minimum=0.1, maximum=1.0, value=0.95, step=0.05, label="Top-p (nucleus sampling)", ), gr.File(label="Загрузите файл (опционально)"), # Поле для загрузки файлов language_dropdown, # Выбор языка ], ) # Привязка кнопки "Новый чат" к функции сброса истории new_chat_button.click(fn=reset_chat, outputs=chat_interface.chatbot) # Запуск интерфейса if __name__ == "__main__": demo.launch()