Spaces:
Sleeping
Sleeping
Hjgugugjhuhjggg
commited on
Update app.py
Browse files
app.py
CHANGED
@@ -73,15 +73,15 @@ class S3DirectStream:
|
|
73 |
print(f"[INFO] Cargando el modelo {model_name} desde S3...")
|
74 |
model_prefix = model_name.lower()
|
75 |
model_files = self.get_model_file_parts(model_prefix)
|
76 |
-
|
77 |
-
|
78 |
-
|
79 |
-
print(f"[INFO] Modelo encontrado en S3, cargando directamente...")
|
80 |
-
else:
|
81 |
-
print(f"[INFO] Modelo no encontrado en S3, descargando desde Hugging Face...")
|
82 |
self.download_and_upload_from_huggingface(model_name)
|
83 |
model_files = self.get_model_file_parts(model_prefix)
|
84 |
-
|
|
|
|
|
|
|
85 |
# Leer y cargar todos los archivos del modelo
|
86 |
model_streams = []
|
87 |
for model_file in tqdm(model_files, desc="Cargando archivos del modelo", unit="archivo"):
|
@@ -89,7 +89,7 @@ class S3DirectStream:
|
|
89 |
|
90 |
config_stream = self.stream_from_s3(f"{model_prefix}/config.json")
|
91 |
config_data = config_stream.read().decode("utf-8")
|
92 |
-
|
93 |
# Cargar el modelo dependiendo del tipo de archivo (torch o safetensors)
|
94 |
if model_files[0].endswith("model.safetensors"):
|
95 |
print("[INFO] Cargando el modelo como safetensor...")
|
@@ -188,9 +188,9 @@ async def predict(model_request: DownloadModelRequest):
|
|
188 |
|
189 |
return {"output": outputs}
|
190 |
except Exception as e:
|
191 |
-
print(f"[ERROR] Error
|
192 |
raise HTTPException(status_code=500, detail="Error al realizar la predicci贸n.")
|
193 |
|
194 |
if __name__ == "__main__":
|
195 |
print("Iniciando servidor de predicciones en localhost:8000")
|
196 |
-
uvicorn.run(app, host="0.0.0.0", port=
|
|
|
73 |
print(f"[INFO] Cargando el modelo {model_name} desde S3...")
|
74 |
model_prefix = model_name.lower()
|
75 |
model_files = self.get_model_file_parts(model_prefix)
|
76 |
+
|
77 |
+
if not model_files:
|
78 |
+
print(f"[INFO] El modelo {model_name} no est谩 en S3. Procediendo a descargar desde Hugging Face...")
|
|
|
|
|
|
|
79 |
self.download_and_upload_from_huggingface(model_name)
|
80 |
model_files = self.get_model_file_parts(model_prefix)
|
81 |
+
|
82 |
+
if not model_files:
|
83 |
+
raise HTTPException(status_code=404, detail=f"Archivos del modelo {model_name} no encontrados en S3.")
|
84 |
+
|
85 |
# Leer y cargar todos los archivos del modelo
|
86 |
model_streams = []
|
87 |
for model_file in tqdm(model_files, desc="Cargando archivos del modelo", unit="archivo"):
|
|
|
89 |
|
90 |
config_stream = self.stream_from_s3(f"{model_prefix}/config.json")
|
91 |
config_data = config_stream.read().decode("utf-8")
|
92 |
+
|
93 |
# Cargar el modelo dependiendo del tipo de archivo (torch o safetensors)
|
94 |
if model_files[0].endswith("model.safetensors"):
|
95 |
print("[INFO] Cargando el modelo como safetensor...")
|
|
|
188 |
|
189 |
return {"output": outputs}
|
190 |
except Exception as e:
|
191 |
+
print(f"[ERROR] Error al procesar la solicitud: {str(e)}")
|
192 |
raise HTTPException(status_code=500, detail="Error al realizar la predicci贸n.")
|
193 |
|
194 |
if __name__ == "__main__":
|
195 |
print("Iniciando servidor de predicciones en localhost:8000")
|
196 |
+
uvicorn.run(app, host="0.0.0.0", port=8000)
|