--- license: apache-2.0 datasets: - eriktks/conll2002 language: - es metrics: - precision - recall - f1 - accuracy --- # LOS-MUCHACHOS Este es modelo resultado de un finetuning de [FacebookAI/xlm-roberta-large-finetuned-conll03-english](https://huggingface.co/FacebookAI/xlm-roberta-large-finetuned-conll03-english) sobre el conll2002 dataset. Los siguientes son los resultados sobre el conjunto de evaluación: - Loss: 0.17227034270763397 - Precision: 0.8140103176758078 - Recall: 0.8423714526552403 - F1: 0.8279480806407071 - Accuracy: 0.9781214374225526 ### Model Description Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002. - **Developed by:** Aragangs.DEv - **Under the tutelage of:** Raul de Piñeres - **Model type:** [] - **Language(s) (NLP):** Español (es) - **License:** Apache 2.0 - **Finetuned from model [optional]:** Modelo AranicoB ## Bias, Risks, and Limitations El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente. ### Recommendations Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento. ### Training hyperparameters The following hyperparameters were used during training: - eval_strategy="epoch", - save_strategy="epoch", - learning_rate=2e-5, # (Aprendizaje se esta cambiando) - per_device_train_batch_size=4, - per_device_eval_batch_size=8, - num_train_epochs=5, - weight_decay=0.1, - max_grad_norm=1.0, - adam_epsilon=1e-8, - #fp16=True, - save_total_limit=2, - load_best_model_at_end=True, - push_to_hub=True, - metric_for_best_model="f1", - seed=42, ### Training results | Metric | Value | |-----------------|-------------| | eval_loss | 0.17227034270763397 | | eval_precision | 0.8140103176758078 | | eval_recall | 0.8423714526552403 | | eval_f1 | 0.8279480806407071 | | eval_accuracy | 0.9781214374225526 | | eval_runtime | 7.6283 | | eval_samples_per_second | 198.995 | | eval_steps_per_second | 24.907 | | epoch | 5.0 | | Label | Precision | Recall | F1 | Number | |--------|-----------|--------|------------|--------| | LOC | 0.8303085299455535 | 0.8440959409594095 | 0.8371454711802379 | 1084 | | MISC | 0.5976331360946746 | 0.5941176470588235 | 0.5958702064896756 | 340 | | ORG | 0.7989276139410187 | 0.8514285714285714 | 0.8243430152143845 | 1400 | | PER | 0.9174434087882823 | 0.9374149659863945 | 0.9273216689098251 | 735 |