--- inference: false language: - pt model_creator: Maritaca AI model_link: https://huggingface.co/maritaca-ai/sabia-7b model_name: Sabia 7B model_type: llama quantized_by: lucianosb pipeline_tag: text-generation --- # Sabiá 7B - GGUF - Criador do Modelo: [Maritaca AI](https://huggingface.co/maritaca-ai/) - Modelo Original: [Sabiá 7B](https://huggingface.co/maritaca-ai/sabia-7b) - Artigo: [Sabiá: Portuguese Large Language Models](https://arxiv.org/pdf/2304.07880.pdf) - Licença: É a mesma do modelo LLaMA-1's, restrigindo o uso do modelo apenas para fins de pesquisa acadêmica. Os modelos Sabiá foram otimizados com language modeling objective, mas não foram treinados para seguir instruções (instruction tuning). Ou seja, eles não são chatbots. Eles funcionam bem em tarefas few-shot: você passa exemplos de entrada e saída, seguidos por um novo exemplo de entrada, daí o modelo gera o texto complementar (a resposta). ## Arquivos Incluídos | Nome | Método Quant | Bits | Tamanho | Desc | | ---- | ---- | ---- | ---- | ----- | | [sabia7b-q4_0.gguf](https://huggingface.co/lucianosb/sabia-7b-GGUF/blob/main/sabia7b-q4_0.gguf) | q4_0 | 4 | 3.83 GB | Quantização em 4-bit. | | [sabia7b-q4_1.gguf](https://huggingface.co/lucianosb/sabia-7b-GGUF/blob/main/sabia7b-q4_1.gguf) | q4_1 | 4 | 4.24 GB | Quantização em 4-bit. Acurácia maior que q4_0 mas não tão boa quanto q5_0. Inferência mais rápida que os modelos q5. | | [sabia7b-q5_0.gguf](https://huggingface.co/lucianosb/sabia-7b-GGUF/blob/main/sabia7b-q5_0.gguf) | q5_0 | 5 | 4.65 GB | Quantização em 5-bit. Melhor acurácia, maior uso de recursos, inferência mais lenta. | | [sabia7b-q5_1.gguf](https://huggingface.co/lucianosb/sabia-7b-GGUF/blob/main/sabia7b-q5_1.gguf) | q5_1 | 5 | 5.06 GB | Quantização em 5-bit. Ainda Melhor acurácia, maior uso de recursos, inferência mais lenta. | | [sabia7b-q8_0.gguf](https://huggingface.co/lucianosb/sabia-7b-GGUF/blob/main/sabia7b-q8_0.gguf) | q8_0 | 8 | 7.16 GB | Quantização em 8-bit. Quase indistinguível do float16. Usa muitos recursos e é mais lento. | **Observação**: os valores de RAM acima não pressupõem descarregamento de GPU. Se as camadas forem descarregadas para a GPU, isso reduzirá o uso de RAM e usará VRAM. ## Como executar com `llama.cpp` Usei o seguinte comando. Para melhores resultados forneça exemplos de resultados esperados. Exemplo: > Classifique a string abaixo em uma ou mais das seguintes classes: A, B, C ou D. > > String: > > Classes: B, D > > String: > > Classes: ``` ./main -m ./models/sabia-7b/sabia7b-q5_1.gguf --color --temp 0.5 -n 256 -p "### Instrução: {comando} ### Resposta:" ``` Para compreender os parâmetros, veja [a documentação do llama.cpp](https://github.com/ggerganov/llama.cpp/blob/master/examples/main/README.md) Experimente gratuitamente no Google Colab: [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/lucianosb/sabia-notebooks/blob/main/sabia_7b_llamacpp_5_1.ipynb) ## Sobre o formato GGUF GGUF é um novo formato introduzido pela equipe llama.cpp em 21 de agosto de 2023. É um substituto para o GGML, que não é mais suportado pelo llama.cpp. O principal benefício do GGUF é que ele é um formato extensível e à prova de futuro que armazena mais informações sobre o modelo como metadados. Ele também inclui código de tokenização significativamente melhorado, incluindo pela primeira vez suporte total para tokens especiais. Isso deve melhorar o desempenho, especialmente com modelos que usam novos tokens especiais e implementam modelos de prompt personalizados. Aqui está uma lista de clientes e bibliotecas que são conhecidos por suportar GGUF: - [llama.cpp](https://github.com/ggerganov/llama.cpp). - [ollama](https://ollama.ai/) - servidor com interfaces REST e CLI - [text-generation-webui](https://github.com/oobabooga/text-generation-webui), a interface web mais amplamente utilizada. Suporta GGUF com aceleração GPU via backend ctransformers - backend llama-cpp-python deve funcionar em breve também. - [KoboldCpp](https://github.com/LostRuins/koboldcpp), agora suporta GGUF a partir da versão 1.41! Uma poderosa interface web GGML, com aceleração total da GPU. Especialmente bom para contar histórias. - [LM Studio](https://lmstudio.ai), versão 0.2.2 e posteriores suportam GGUF. Uma GUI local totalmente equipada com aceleração GPU em ambos Windows (NVidia e AMD) e macOS. - [LoLLMS Web UI](https://github.com/ParisNeo/lollms-webui), agora deve funcionar, escolha o backend c_transformers. Uma ótima interface web com muitos recursos interessantes. Suporta aceleração GPU CUDA. - [ctransformers](https://github.com/marella/ctransformers), agora suporta GGUF a partir da versão 0.2.24! Uma biblioteca Python com aceleração GPU, suporte LangChain e servidor AI compatível com OpenAI. - [llama-cpp-python](https://github.com/abetlen/llama-cpp-python), suporta GGUF a partir da versão 0.1.79. Uma biblioteca Python com aceleração GPU, suporte LangChain e servidor API compatível com OpenAI. - [candle](https://github.com/huggingface/candle), adicionou suporte GGUF em 22 de agosto. Candle é um framework ML Rust com foco em desempenho, incluindo suporte GPU e facilidade de uso. - [LocalAI](https://github.com/go-skynet/LocalAI), adicionou suporte GGUF em 23 de agosto. LocalAI provê uma API Rest para modelos LLM e de geração de imagens. ## Template ```` ### Instrução: {prompt} ### Resposta: ````