fashion-clip / app.py
Saad0KH's picture
Update app.py
d083901 verified
raw
history blame
833 Bytes
import gradio as gr
from transformers import AutoProcessor, CLIPModel
# Charger le pipeline
model = CLIPModel.from_pretrained("patrickjohncyh/fashion-clip")
processor = AutoProcessor.from_pretrained("patrickjohncyh/fashion-clip")
# Définir la fonction pour la classification d'image avec du texte en entrée
def classify_image_with_text(text, image):
# Effectuer la classification d'image à l'aide du texte
inputs = processor(
text=[text], images=image, return_tensors="pt", padding=True
)
return model(**inputs)
# Créer l'interface Gradio avec l'API de Gradio Blocks
with gr.Interface(
fn=classify_image_with_text,
inputs=[gr.Textbox(lines=1, label="Prompt"), gr.Image(label="Image")],
outputs=gr.Textbox(label='Sortie de l\'API'),
title="SD Models"
) as iface:
iface.launch()