--- license: apache-2.0 datasets: - eriktks/conll2002 language: - es metrics: - precision - recall - f1 - accuracy --- # LOS-MUCHACHOS Este es modelo resultado de un finetuning de [FacebookAI/xlm-roberta-large-finetuned-conll03-english](https://huggingface.co/FacebookAI/xlm-roberta-large-finetuned-conll03-english) sobre el conll2002 dataset. Los siguientes son los resultados sobre el conjunto de evaluación: - Loss: 0.1364 - Precision: 0.8806 - Recall: 0.8897 - F1: 0.8851 - Accuracy: 0.9806 ### Model Description Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002. - **Developed by:** Aragangs.DEv - **Under the tutelage of:** Raul de Piñeres - **Model type:** [] - **Language(s) (NLP):** Español (es) - **License:** Apache 2.0 - **Finetuned from model [optional]:** Modelo AranicoB ## Bias, Risks, and Limitations El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente. ### Recommendations Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento. ### Training hyperparameters The following hyperparameters were used during training: - eval_strategy="epoch", - save_strategy="epoch", - learning_rate=2e-5, # (Aprendizaje se esta cambiando) - per_device_train_batch_size=4, - per_device_eval_batch_size=8, - num_train_epochs=5, - weight_decay=0.1, - max_grad_norm=1.0, - adam_epsilon=1e-8, - #fp16=True, - save_total_limit=2, - load_best_model_at_end=True, - push_to_hub=True, - metric_for_best_model="f1", - seed=42, ### Training results | Training Loss | Epoch | Step | Validation Loss | Precision | Recall | F1 | Accuracy | |:-------------:|:-----:|:-----:|:---------------:|:---------:|:------:|:------:|:--------:| | 0.0743 | 1.0 | 2081 | 0.1131 | 0.8385 | 0.8587 | 0.8485 | 0.9771 | | 0.049 | 2.0 | 4162 | 0.1429 | 0.8492 | 0.8564 | 0.8528 | 0.9756 | | 0.031 | 3.0 | 6243 | 0.1298 | 0.8758 | 0.8817 | 0.8787 | 0.9800 | | 0.0185 | 4.0 | 8324 | 0.1279 | 0.8827 | 0.8890 | 0.8859 | 0.9808 | | 0.0125 | 5.0 | 10405 | 0.1364 | 0.8806 | 0.8897 | 0.8851 | 0.9806 |