File size: 3,446 Bytes
83b2c84
 
 
 
 
 
 
 
 
 
 
b9f8664
24f79a0
b9f8664
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
---
license: apache-2.0
datasets:
- eriktks/conll2002
language:
- es
metrics:
- f1
library_name: transformers
tags:
- for-all-Audiences
---
# Model Card for LOS-MUCHACHOS

<!-- Provide a quick summary of what the model is/does. -->
Este modelo es un modelo de clasificación de texto entrenado en el conjunto de datos CoNLL-2002 en español. Es útil para tareas de reconocimiento de entidades nombradas (NER).

## Model Details

### Model Description

<!-- Provide a longer summary of what this model is. -->
Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002.

- **Developed by:** Aragangs.DEv
- **Shared by [optional]:** Raul de Piñeres
- **Model type:** []
- **Language(s) (NLP):** Español (es)
- **License:** Apache 2.0
- **Finetuned from model [optional]:** Modelo AranicoB

### Model Sources [optional]

<!-- Provide the basic links for the model. -->
- **Repository:** [[URL del repositorio](https://huggingface.co/KPOETA/bert-finetuned-ner-1)]

### Direct Use

<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
El modelo puede ser utilizado directamente para la tarea de reconocimiento de entidades nombradas en textos en español, sin necesidad de ajuste adicional.

- https://huggingface.co/KPOETA/bert-finetuned-ner-1

### Downstream Use [optional]

<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
Puede ser ajustado para tareas específicas de NER en dominios particulares o integrado en sistemas más grandes que requieran identificación de entidades.

### Out-of-Scope Use

<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
El modelo no es adecuado para tareas que no involucren el reconocimiento de entidades nombradas. No debe ser utilizado para generar texto sin control humano.

## Bias, Risks, and Limitations

<!-- This section is meant to convey both technical and sociotechnical limitations. -->
El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente.

### Recommendations

<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento.

## How to Get Started with the Model

Use el siguiente código para comenzar a utilizar el modelo:

```python
# Load model directly
from transformers import AutoTokenizer, AutoModelForTokenClassification

tokenizer = AutoTokenizer.from_pretrained("KPOETA/bert-finetuned-ner-1")
model = AutoModelForTokenClassification.from_pretrained("KPOETA/bert-finetuned-ner-1")

## Test the model
text = "El presidente de Francia, Emmanuel Macron, visitará Estados Unidos la próxima semana."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)