import gradio as gr from huggingface_hub import InferenceClient import PyPDF2 from PIL import Image import cv2 import numpy as np from pydub import AudioSegment from langdetect import detect from rembg import remove import torch import torchvision from torchvision.models.detection import fasterrcnn_resnet50_fpn from torchvision.transforms import functional as F import tempfile from diffusers import DiffusionPipeline import random # Инициализация клиента для модели HuggingFaceH4/zephyr-7b-beta client = InferenceClient("HuggingFaceH4/zephyr-7b-beta") # Загрузка предобученной модели для обнаружения объектов model = fasterrcnn_resnet50_fpn(pretrained=True) model.eval() # Инициализация модели SDXL-Turbo device = "cuda" if torch.cuda.is_available() else "cpu" model_repo_id = "stabilityai/sdxl-turbo" if torch.cuda.is_available(): torch_dtype = torch.float16 else: torch_dtype = torch.float32 pipe = DiffusionPipeline.from_pretrained(model_repo_id, torch_dtype=torch_dtype) pipe = pipe.to(device) MAX_SEED = np.iinfo(np.int32).max MAX_IMAGE_SIZE = 1024 # Функция для генерации изображения с помощью SDXL-Turbo def generate_with_diffusion( prompt, negative_prompt="", seed=0, randomize_seed=True, width=1024, height=1024, guidance_scale=0.0, num_inference_steps=2, ): if randomize_seed: seed = random.randint(0, MAX_SEED) generator = torch.Generator().manual_seed(seed) image = pipe( prompt=prompt, negative_prompt=negative_prompt, guidance_scale=guidance_scale, num_inference_steps=num_inference_steps, width=width, height=height, generator=generator, ).images[0] return image, seed # Функция для обработки PDF def process_pdf(file): pdf_reader = PyPDF2.PdfReader(file) text = "" for page in pdf_reader.pages: text += page.extract_text() return text # Функция для обработки изображений def process_image(file): image = Image.open(file) return f"Изображение: {image.size[0]}x{image.size[1]} пикселей, формат: {image.format}" # Функция для обработки видео def process_video(file): cap = cv2.VideoCapture(file.name) frame_count = int(cap.get(cv2.CAP_PROP_FRAME_COUNT)) duration = frame_count / cap.get(cv2.CAP_PROP_FPS) cap.release() return f"Видео: длительность {duration:.2f} секунд, {frame_count} кадров" # Функция для обработки аудио def process_audio(file): audio = AudioSegment.from_file(file) return f"Аудио: длительность {len(audio) / 1000:.2f} секунд, частота {audio.frame_rate} Гц" # Функция для обработки текстового файла def process_txt(file): with open(file.name, "r", encoding="utf-8") as f: text = f.read() return text # Функция для удаления фона с изображения def remove_background(image): if image is None: return None output = remove(image) return output # Функция для определения количества объектов на изображении def count_objects(image): if image is None: return "Изображение не загружено." # Преобразование изображения в формат, подходящий для модели img = Image.open(image.name).convert("RGB") img_tensor = F.to_tensor(img).unsqueeze(0) # Обнаружение объектов with torch.no_grad(): predictions = model(img_tensor) # Подсчет количества объектов num_objects = len(predictions[0]['labels']) return f"Количество объектов на изображении: {num_objects}" # Функция для конвертации изображения def convert_image(image, target_format): if image is None: return None img = Image.open(image.name) # Создаем временный файл with tempfile.NamedTemporaryFile(delete=False, suffix=f".{target_format.lower()}") as tmp_file: img.save(tmp_file, format=target_format) return tmp_file.name # Функция для определения языка текста def detect_language(text): try: return detect(text) except: return "en" # По умолчанию английский # Функция для обработки сообщений, истории и файлов def respond( message, history: list[tuple[str, str]], system_message, max_tokens, temperature, top_p, file=None, ): # Если загружен файл, обрабатываем его if file is not None: file_type = file.name.split(".")[-1].lower() if file_type == "pdf": file_info = process_pdf(file) elif file_type in ["jpg", "jpeg", "png", "bmp", "gif"]: file_info = process_image(file) elif file_type in ["mp4", "avi", "mov"]: file_info = process_video(file) elif file_type in ["mp3", "wav", "ogg"]: file_info = process_audio(file) elif file_type == "txt": file_info = process_txt(file) else: file_info = "Неизвестный тип файла" message += f"\n[Пользователь загрузил файл: {file.name}]\n{file_info}" # Определяем язык сообщения language = detect_language(message) # Добавляем системное сообщение с учетом языка if language == "ru": system_message = "Вы дружелюбный чат-бот, который понимает русский язык." else: system_message = "You are a friendly chatbot." # Добавляем системное сообщение messages = [{"role": "system", "content": system_message}] # Добавляем историю сообщений for val in history: if val[0]: messages.append({"role": "user", "content": val[0]}) if val[1]: messages.append({"role": "assistant", "content": val[1]}) # Добавляем текущее сообщение пользователя messages.append({"role": "user", "content": message}) # Генерация ответа с использованием модели HuggingFaceH4/zephyr-7b-beta response = "" for message in client.chat_completion( messages, max_tokens=max_tokens, stream=True, temperature=temperature, top_p=top_p, ): token = message.choices[0].delta.content response += token yield response # Функция для сброса истории чата def reset_chat(): return [] # Функция для анализа текстового файла def analyze_txt(file): if file is None: return "Файл не загружен." text = process_txt(file) return f"Содержимое файла:\n{text}" # Создание интерфейса with gr.Blocks() as demo: # Заголовок с изображением gr.HTML("""