--- license: apache-2.0 datasets: - eriktks/conll2002 language: - es metrics: - f1 library_name: transformers tags: - for-all-Audiences --- # Model Card for LOS-MUCHACHOS Este modelo es un modelo de clasificación de texto entrenado en el conjunto de datos CoNLL-2002 en español. Es útil para tareas de reconocimiento de entidades nombradas (NER). ## Model Details ### Model Description Este modelo ha sido desarrollado para identificar y clasificar entidades nombradas (personas, ubicaciones, organizaciones, etc.) en texto en español. Se basa en la arquitectura [nombre del modelo base, por ejemplo, BERT, RoBERTa, etc.] y ha sido ajustado (fine-tuned) utilizando el conjunto de datos CoNLL-2002. - **Developed by:** Aragangs.DEv - **Shared by [optional]:** Raul de Piñeres - **Model type:** [] - **Language(s) (NLP):** Español (es) - **License:** Apache 2.0 - **Finetuned from model [optional]:** Modelo AranicoB ### Model Sources [optional] - **Repository:** [[URL del repositorio](https://huggingface.co/KPOETA/bert-finetuned-ner-1)] ### Direct Use El modelo puede ser utilizado directamente para la tarea de reconocimiento de entidades nombradas en textos en español, sin necesidad de ajuste adicional. - https://huggingface.co/KPOETA/bert-finetuned-ner-1 ### Downstream Use [optional] Puede ser ajustado para tareas específicas de NER en dominios particulares o integrado en sistemas más grandes que requieran identificación de entidades. ### Out-of-Scope Use El modelo no es adecuado para tareas que no involucren el reconocimiento de entidades nombradas. No debe ser utilizado para generar texto sin control humano. ## Bias, Risks, and Limitations El modelo puede tener sesgos inherentes en los datos de entrenamiento. Podría no reconocer entidades de manera precisa en dialectos o variaciones regionales del español. Los usuarios deben ser conscientes de estas limitaciones y evaluar los resultados críticamente. ### Recommendations Los usuarios deben revisar los resultados para posibles sesgos y errores, especialmente cuando se utiliza en contextos críticos. Se recomienda un ajuste adicional con datos específicos del dominio para mejorar el rendimiento. ## How to Get Started with the Model Use el siguiente código para comenzar a utilizar el modelo: ```python # Load model directly from transformers import AutoTokenizer, AutoModelForTokenClassification tokenizer = AutoTokenizer.from_pretrained("KPOETA/bert-finetuned-ner-1") model = AutoModelForTokenClassification.from_pretrained("KPOETA/bert-finetuned-ner-1") ## Test the model text = "El presidente de Francia, Emmanuel Macron, visitará Estados Unidos la próxima semana." inputs = tokenizer(text, return_tensors="pt") outputs = model(**inputs)