|
--- |
|
license: apache-2.0 |
|
datasets: |
|
- eriktks/conll2002 |
|
language: |
|
- es |
|
metrics: |
|
- f1 |
|
library_name: transformers |
|
tags: |
|
- for-all-Audiences |
|
--- |
|
# Model Card for LOS-MUCHACHOS |
|
|
|
<!-- Provide a quick summary of what the model is/does. --> |
|
Este modelo es un modelo de clasificación de texto entrenado en el conjunto de datos CoNLL-2002 en español. Es útil para tareas de reconocimiento de entidades nombradas (NER). |
|
|
|
## Model Details |
|
|
|
### Model Description |
|
|
|
<!-- Provide a longer summary of what this model is. --> |
|
Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002. |
|
|
|
- **Developed by:** Aragangs.DEv |
|
- **Shared by [optional]:** Raul de Piñeres |
|
- **Model type:** [] |
|
- **Language(s) (NLP):** Español (es) |
|
- **License:** Apache 2.0 |
|
- **Finetuned from model [optional]:** Modelo AranicoB |
|
|
|
### Model Sources [optional] |
|
|
|
<!-- Provide the basic links for the model. --> |
|
- **Repository:** [[URL del repositorio](https://huggingface.co/KPOETA/bert-finetuned-ner-1)] |
|
|
|
### Direct Use |
|
|
|
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> |
|
El modelo puede ser utilizado directamente para la tarea de reconocimiento de entidades nombradas en textos en español, sin necesidad de ajuste adicional. |
|
|
|
- https://huggingface.co/KPOETA/bert-finetuned-ner-1 |
|
|
|
### Downstream Use [optional] |
|
|
|
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> |
|
Puede ser ajustado para tareas específicas de NER en dominios particulares o integrado en sistemas más grandes que requieran identificación de entidades. |
|
|
|
### Out-of-Scope Use |
|
|
|
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> |
|
El modelo no es adecuado para tareas que no involucren el reconocimiento de entidades nombradas. No debe ser utilizado para generar texto sin control humano. |
|
|
|
## Bias, Risks, and Limitations |
|
|
|
<!-- This section is meant to convey both technical and sociotechnical limitations. --> |
|
El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente. |
|
|
|
### Recommendations |
|
|
|
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> |
|
Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento. |
|
|
|
## How to Get Started with the Model |
|
|
|
Use el siguiente código para comenzar a utilizar el modelo: |
|
|
|
```python |
|
# Load model directly |
|
from transformers import AutoTokenizer, AutoModelForTokenClassification |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("KPOETA/bert-finetuned-ner-1") |
|
model = AutoModelForTokenClassification.from_pretrained("KPOETA/bert-finetuned-ner-1") |
|
|
|
## Test the model |
|
text = "El presidente de Francia, Emmanuel Macron, visitará Estados Unidos la próxima semana." |
|
inputs = tokenizer(text, return_tensors="pt") |
|
outputs = model(**inputs) |
|
|