Saad0KH commited on
Commit
2fe1915
·
verified ·
1 Parent(s): 32e883d

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -8
app.py CHANGED
@@ -1,8 +1,6 @@
1
  import gradio as gr
2
  from transformers import AutoProcessor, CLIPModel
3
- from fashion_clip.fashion_clip import FashionCLIP
4
 
5
- fclip = FashionCLIP('fashion-clip')
6
 
7
  # Charger le pipeline
8
 
@@ -12,12 +10,14 @@ processor = AutoProcessor.from_pretrained("patrickjohncyh/fashion-clip")
12
  # Définir la fonction pour la classification d'image avec du texte en entrée
13
  def classify_image_with_text(text, image):
14
  # Effectuer la classification d'image à l'aide du texte
15
- image_embeddings = fclip.encode_images(image, batch_size=32)
16
- text_embeddings = fclip.encode_text(text, batch_size=32)
17
- # we normalize the embeddings to unit norm (so that we can use dot product instead of cosine similarity to do comparisons)
18
- image_embeddings = image_embeddings/np.linalg.norm(image_embeddings, ord=2, axis=-1, keepdims=True)
19
- text_embeddings = text_embeddings/np.linalg.norm(text_embeddings, ord=2, axis=-1, keepdims=True)
20
- return text_embeddings;
 
 
21
 
22
  # Créer l'interface Gradio avec l'API de Gradio Blocks
23
  with gr.Interface(
 
1
  import gradio as gr
2
  from transformers import AutoProcessor, CLIPModel
 
3
 
 
4
 
5
  # Charger le pipeline
6
 
 
10
  # Définir la fonction pour la classification d'image avec du texte en entrée
11
  def classify_image_with_text(text, image):
12
  # Effectuer la classification d'image à l'aide du texte
13
+ inputs = processor(
14
+ text=["a photo of a man", "a photo of woman"], images=image, return_tensors="pt", padding=True
15
+ )
16
+ outputs = model(**inputs)
17
+ logits_per_image = outputs.logits_per_image # this is the image-text similarity score
18
+ probs = logits_per_image.softmax(dim=1)
19
+ print(probs)
20
+ return probs
21
 
22
  # Créer l'interface Gradio avec l'API de Gradio Blocks
23
  with gr.Interface(