Update app.py
Browse files
app.py
CHANGED
@@ -14,6 +14,7 @@ from torchvision.transforms import functional as F
|
|
14 |
import tempfile
|
15 |
from diffusers import DiffusionPipeline
|
16 |
import random
|
|
|
17 |
|
18 |
# Инициализация клиента для модели HuggingFaceH4/zephyr-7b-beta
|
19 |
client = InferenceClient("HuggingFaceH4/zephyr-7b-beta")
|
@@ -37,7 +38,7 @@ pipe = pipe.to(device)
|
|
37 |
MAX_SEED = np.iinfo(np.int32).max
|
38 |
MAX_IMAGE_SIZE = 1024
|
39 |
|
40 |
-
# Функция для генерации изображения с
|
41 |
def generate_with_diffusion(
|
42 |
prompt,
|
43 |
negative_prompt="",
|
@@ -47,12 +48,20 @@ def generate_with_diffusion(
|
|
47 |
height=1024,
|
48 |
guidance_scale=0.0,
|
49 |
num_inference_steps=2,
|
|
|
50 |
):
|
51 |
if randomize_seed:
|
52 |
seed = random.randint(0, MAX_SEED)
|
53 |
|
54 |
generator = torch.Generator().manual_seed(seed)
|
55 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
56 |
image = pipe(
|
57 |
prompt=prompt,
|
58 |
negative_prompt=negative_prompt,
|
|
|
14 |
import tempfile
|
15 |
from diffusers import DiffusionPipeline
|
16 |
import random
|
17 |
+
import time
|
18 |
|
19 |
# Инициализация клиента для модели HuggingFaceH4/zephyr-7b-beta
|
20 |
client = InferenceClient("HuggingFaceH4/zephyr-7b-beta")
|
|
|
38 |
MAX_SEED = np.iinfo(np.int32).max
|
39 |
MAX_IMAGE_SIZE = 1024
|
40 |
|
41 |
+
# Функция для генерации изображения с задержкой
|
42 |
def generate_with_diffusion(
|
43 |
prompt,
|
44 |
negative_prompt="",
|
|
|
48 |
height=1024,
|
49 |
guidance_scale=0.0,
|
50 |
num_inference_steps=2,
|
51 |
+
progress=gr.Progress(),
|
52 |
):
|
53 |
if randomize_seed:
|
54 |
seed = random.randint(0, MAX_SEED)
|
55 |
|
56 |
generator = torch.Generator().manual_seed(seed)
|
57 |
|
58 |
+
# Обратный отсчет 20 секунд
|
59 |
+
for i in range(20, 0, -1):
|
60 |
+
progress((20 - i) / 20, desc=f"Генерация начнется через {i} секунд...")
|
61 |
+
time.sleep(20)
|
62 |
+
|
63 |
+
# Генерация изображения
|
64 |
+
progress(1.0, desc="Генерация изображения...")
|
65 |
image = pipe(
|
66 |
prompt=prompt,
|
67 |
negative_prompt=negative_prompt,
|