|
--- |
|
language: |
|
- pt |
|
license: apache-2.0 |
|
tags: |
|
- text-generation-inference |
|
- transformers |
|
- unsloth |
|
- gemma2 |
|
- trl |
|
- sft |
|
base_model: unsloth/gemma-2-9b-bnb-4bit |
|
datasets: |
|
- lucianosb/cetacean-ptbr |
|
model-index: |
|
- name: boto-9B |
|
results: |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: ENEM Challenge (No Images) |
|
type: eduagarcia/enem_challenge |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 75.02 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: BLUEX (No Images) |
|
type: eduagarcia-temp/BLUEX_without_images |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 63.28 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: OAB Exams |
|
type: eduagarcia/oab_exams |
|
split: train |
|
args: |
|
num_few_shot: 3 |
|
metrics: |
|
- type: acc |
|
value: 54.4 |
|
name: accuracy |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: Assin2 RTE |
|
type: assin2 |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: f1_macro |
|
value: 89.38 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: Assin2 STS |
|
type: eduagarcia/portuguese_benchmark |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: pearson |
|
value: 76.59 |
|
name: pearson |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: FaQuAD NLI |
|
type: ruanchaves/faquad-nli |
|
split: test |
|
args: |
|
num_few_shot: 15 |
|
metrics: |
|
- type: f1_macro |
|
value: 56.86 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: HateBR Binary |
|
type: ruanchaves/hatebr |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 77.88 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: PT Hate Speech Binary |
|
type: hate_speech_portuguese |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 61.51 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
- task: |
|
type: text-generation |
|
name: Text Generation |
|
dataset: |
|
name: tweetSentBR |
|
type: eduagarcia/tweetsentbr_fewshot |
|
split: test |
|
args: |
|
num_few_shot: 25 |
|
metrics: |
|
- type: f1_macro |
|
value: 61.11 |
|
name: f1-macro |
|
source: |
|
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=lucianosb/boto-9B |
|
name: Open Portuguese LLM Leaderboard |
|
--- |
|
|
|
# Boto 9B |
|
|
|
<img src="https://i.imgur.com/ERM3ir7.png" alt="logo do boto cor-de-rosa" width="400px" /> |
|
|
|
Boto é um fine-tuning do Gemma2-9B para língua portuguesa usando o dataset cetacean-ptbr. O Boto é bem "falante", as respostas tendem a ser longas e nem sempre objetivas por padrão. |
|
|
|
Boto é um nome dado a vários tipos de golfinhos e botos nativos do Amazonas e dos afluentes do rio Orinoco. Alguns botos existem exclusivamente em água doce, e estes são frequentemente considerados golfinhos primitivos. |
|
|
|
O “boto” das regiões do rio Amazonas no norte do Brasil é descrito de acordo com o folclore local como assumindo a forma de um humano, também conhecido como Boto cor-de-rosa, e com o hábito de seduzir mulheres humanas e engravidá-las. |
|
|
|
|
|
## English description |
|
|
|
Boto is a fine-tuning of Gemma2-9B for portuguese language. Responses tend to be verbose. |
|
|
|
Boto is a Portuguese name given to several types of dolphins and river dolphins native to the Amazon and the Orinoco River tributaries. A few botos exist exclusively in fresh water, and these are often considered primitive dolphins. |
|
|
|
The "boto" of the Amazon River regions of northern Brazil are described according to local lore as taking the form of a human or merman, also known as Boto cor-de-rosa ("Pink Boto" in Portuguese) and with the habit of seducing human women and impregnating them. |
|
|
|
## Isenção de Responsabilidade |
|
|
|
O modelo é uma ferramenta de geração de texto que utiliza dados de treinamento para produzir saídas. Ele não possui a capacidade de compreender ou interpretar o conteúdo de maneira semelhante a um humano. Não foram implementados mecanismos de moderação de conteúdo no modelo, portanto existe a possibilidade de reprodução de estereótipos sociais de cultura, gênero, etnia, raça ou idade, ele pode, inadvertidamente, gerar tais conteúdos devido às limitações e preconceitos presentes nos dados de treinamento. |
|
|
|
O modelo não foi treinado com a intenção de reproduzir fatos reais e, portanto, pode gerar conteúdo inconsistente com a realidade. Os usuários são aconselhados a não confiar exclusivamente no modelo para tomar decisões importantes e devem sempre exercer seu próprio julgamento ao interpretar e usar o conteúdo gerado. |
|
|
|
O uso do modelo é de inteira responsabilidade do usuário. O desenvolvedor do modelo não se responsabiliza por qualquer dano ou prejuízo resultante do uso ou mau uso do conteúdo gerado pelo modelo. |
|
|
|
|
|
# Uploaded model |
|
|
|
- **Developed by:** lucianosb |
|
- **License:** apache-2.0 |
|
- **Finetuned from model :** unsloth/gemma-2-9b-bnb-4bit |
|
|
|
This gemma2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. |
|
|
|
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth) |
|
|
|
|
|
# Open Portuguese LLM Leaderboard Evaluation Results |
|
|
|
Detailed results can be found [here](https://huggingface.co/datasets/eduagarcia-temp/llm_pt_leaderboard_raw_results/tree/main/lucianosb/boto-9B) and on the [🚀 Open Portuguese LLM Leaderboard](https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard) |
|
|
|
| Metric | Value | |
|
|--------------------------|---------| |
|
|Average |**68.45**| |
|
|ENEM Challenge (No Images)| 75.02| |
|
|BLUEX (No Images) | 63.28| |
|
|OAB Exams | 54.40| |
|
|Assin2 RTE | 89.38| |
|
|Assin2 STS | 76.59| |
|
|FaQuAD NLI | 56.86| |
|
|HateBR Binary | 77.88| |
|
|PT Hate Speech Binary | 61.51| |
|
|tweetSentBR | 61.11| |
|
|
|
|