Hjgugugjhuhjggg commited on
Commit
299d616
verified
1 Parent(s): 02d8cd7

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -10
app.py CHANGED
@@ -73,15 +73,15 @@ class S3DirectStream:
73
  print(f"[INFO] Cargando el modelo {model_name} desde S3...")
74
  model_prefix = model_name.lower()
75
  model_files = self.get_model_file_parts(model_prefix)
76
-
77
- # Verificar si el modelo est谩 en S3
78
- if model_files:
79
- print(f"[INFO] Modelo encontrado en S3, cargando directamente...")
80
- else:
81
- print(f"[INFO] Modelo no encontrado en S3, descargando desde Hugging Face...")
82
  self.download_and_upload_from_huggingface(model_name)
83
  model_files = self.get_model_file_parts(model_prefix)
84
-
 
 
 
85
  # Leer y cargar todos los archivos del modelo
86
  model_streams = []
87
  for model_file in tqdm(model_files, desc="Cargando archivos del modelo", unit="archivo"):
@@ -89,7 +89,7 @@ class S3DirectStream:
89
 
90
  config_stream = self.stream_from_s3(f"{model_prefix}/config.json")
91
  config_data = config_stream.read().decode("utf-8")
92
-
93
  # Cargar el modelo dependiendo del tipo de archivo (torch o safetensors)
94
  if model_files[0].endswith("model.safetensors"):
95
  print("[INFO] Cargando el modelo como safetensor...")
@@ -188,9 +188,9 @@ async def predict(model_request: DownloadModelRequest):
188
 
189
  return {"output": outputs}
190
  except Exception as e:
191
- print(f"[ERROR] Error en el proceso de predicci贸n: {str(e)}")
192
  raise HTTPException(status_code=500, detail="Error al realizar la predicci贸n.")
193
 
194
  if __name__ == "__main__":
195
  print("Iniciando servidor de predicciones en localhost:8000")
196
- uvicorn.run(app, host="0.0.0.0", port=7860)
 
73
  print(f"[INFO] Cargando el modelo {model_name} desde S3...")
74
  model_prefix = model_name.lower()
75
  model_files = self.get_model_file_parts(model_prefix)
76
+
77
+ if not model_files:
78
+ print(f"[INFO] El modelo {model_name} no est谩 en S3. Procediendo a descargar desde Hugging Face...")
 
 
 
79
  self.download_and_upload_from_huggingface(model_name)
80
  model_files = self.get_model_file_parts(model_prefix)
81
+
82
+ if not model_files:
83
+ raise HTTPException(status_code=404, detail=f"Archivos del modelo {model_name} no encontrados en S3.")
84
+
85
  # Leer y cargar todos los archivos del modelo
86
  model_streams = []
87
  for model_file in tqdm(model_files, desc="Cargando archivos del modelo", unit="archivo"):
 
89
 
90
  config_stream = self.stream_from_s3(f"{model_prefix}/config.json")
91
  config_data = config_stream.read().decode("utf-8")
92
+
93
  # Cargar el modelo dependiendo del tipo de archivo (torch o safetensors)
94
  if model_files[0].endswith("model.safetensors"):
95
  print("[INFO] Cargando el modelo como safetensor...")
 
188
 
189
  return {"output": outputs}
190
  except Exception as e:
191
+ print(f"[ERROR] Error al procesar la solicitud: {str(e)}")
192
  raise HTTPException(status_code=500, detail="Error al realizar la predicci贸n.")
193
 
194
  if __name__ == "__main__":
195
  print("Iniciando servidor de predicciones en localhost:8000")
196
+ uvicorn.run(app, host="0.0.0.0", port=8000)