|
--- |
|
language: |
|
- pt |
|
license: apache-2.0 |
|
tags: |
|
- text-generation-inference |
|
- transformers |
|
- unsloth |
|
- mistral |
|
- trl |
|
- sft |
|
base_model: unsloth/mistral-7b-instruct-v0.3-bnb-4bit |
|
datasets: |
|
- lucianosb/cetacean-ptbr |
|
model-index: |
|
- name: boto-7B-v1.2 |
|
results: |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: ENEM Challenge (No Images) |
|
type: eduagarcia/enem_challenge |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 60.95 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: BLUEX (No Images) |
|
type: eduagarcia-temp/BLUEX_without_images |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 49.1 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: OAB Exams |
|
type: eduagarcia/oab_exams |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 40.73 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: Assin2 RTE |
|
type: assin2 |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: f1_macro |
|
value: 90.73 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: Assin2 STS |
|
type: eduagarcia/portuguese_benchmark |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: pearson |
|
value: 72.37 |
|
name: pearson |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: FaQuAD NLI |
|
type: ruanchaves/faquad-nli |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: f1_macro |
|
value: 72.38 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: HateBR Binary |
|
type: ruanchaves/hatebr |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 74.58 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: PT Hate Speech Binary |
|
type: hate_speech_portuguese |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 70.63 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: tweetSentBR |
|
type: eduagarcia/tweetsentbr_fewshot |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 61.27 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-7B-v1.2 |
|
name: Open Portuguese LLM Leaderboard |
|
--- |
|
|
|
# Boto 7B v1.2 |
|
|
|
<img src="https://i.imgur.com/pZ7IoyK.png" alt="logo do boto cor-de-rosa" width="300px" /> |
|
|
|
Boto é um fine-tuning do Mistral7B-instruct-0.3 para língua portuguesa usando o dataset cetacean-ptbr. O Boto é bem "falante", as respostas tendem a ser longas e nem sempre objetivas por padrão. |
|
|
|
|
|
Acesse a [demonstração online](https://huggingface.co/spaces/lucianosb/boto-7B) disponível. |
|
|
|
Boto é um nome dado a vários tipos de golfinhos e botos nativos do Amazonas e dos afluentes do rio Orinoco. Alguns botos existem exclusivamente em água doce, e estes são frequentemente considerados golfinhos primitivos. |
|
|
|
O “boto” das regiões do rio Amazonas no norte do Brasil é descrito de acordo com o folclore local como assumindo a forma de um humano, também conhecido como Boto cor-de-rosa, e com o hábito de seduzir mulheres humanas e engravidá-las. |
|
|
|
|
|
## English description |
|
|
|
Boto is a fine-tuning of Mistral 7B for portuguese language. Responses tend to be verbose. |
|
|
|
Try the [demo](https://huggingface.co/spaces/lucianosb/boto-7B). |
|
|
|
Boto is a Portuguese name given to several types of dolphins and river dolphins native to the Amazon and the Orinoco River tributaries. A few botos exist exclusively in fresh water, and these are often considered primitive dolphins. |
|
|
|
The "boto" of the Amazon River regions of northern Brazil are described according to local lore as taking the form of a human or merman, also known as Boto cor-de-rosa ("Pink Boto" in Portuguese) and with the habit of seducing human women and impregnating them. |
|
|
|
## Isenção de Responsabilidade |
|
|
|
O modelo é uma ferramenta de geração de texto que utiliza dados de treinamento para produzir saídas. Ele não possui a capacidade de compreender ou interpretar o conteúdo de maneira semelhante a um humano. Não foram implementados mecanismos de moderação de conteúdo no modelo, portanto existe a possibilidade de reprodução de estereótipos sociais de cultura, gênero, etnia, raça ou idade, ele pode, inadvertidamente, gerar tais conteúdos devido às limitações e preconceitos presentes nos dados de treinamento. |
|
|
|
O modelo não foi treinado com a intenção de reproduzir fatos reais e, portanto, pode gerar conteúdo inconsistente com a realidade. Os usuários são aconselhados a não confiar exclusivamente no modelo para tomar decisões importantes e devem sempre exercer seu próprio julgamento ao interpretar e usar o conteúdo gerado. |
|
|
|
O uso do modelo é de inteira responsabilidade do usuário. O desenvolvedor do modelo não se responsabiliza por qualquer dano ou prejuízo resultante do uso ou mau uso do conteúdo gerado pelo modelo. |
|
|
|
|
|
# Uploaded model |
|
|
|
- **Developed by:** lucianosb |
|
- **License:** apache-2.0 |
|
- **Finetuned from model :** unsloth/mistral-7b-instruct-v0.3-bnb-4bit |
|
|
|
This mistral model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. |
|
|
|
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth) |
|
|
|
|
|
# Open Portuguese LLM Leaderboard Evaluation Results |
|
|
|
Detailed results can be found [here](https://huggingface.co/datasets/eduagarcia-temp/llm_pt_leaderboard_raw_results/tree/main/lucianosb/boto-7B-v1.2) and on the [🚀 Open Portuguese LLM Leaderboard](https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard) |
|
|
|
| Metric | Value | |
|
|--------------------------|---------| |
|
|Average |**65.86**| |
|
|ENEM Challenge (No Images)| 60.95| |
|
|BLUEX (No Images) | 49.10| |
|
|OAB Exams | 40.73| |
|
|Assin2 RTE | 90.73| |
|
|Assin2 STS | 72.37| |
|
|FaQuAD NLI | 72.38| |
|
|HateBR Binary | 74.58| |
|
|PT Hate Speech Binary | 70.63| |
|
|tweetSentBR | 61.27| |
|
|
|
|