--- license: llama2 language: - pt pipeline_tag: text-generation library_name: transformers tags: - llama - peft - portuguese - instruct model-index: - name: boana-7b-instruct results: - task: type: text-generation dataset: type: Muennighoff/xwinograd name: XWinograd (pt) config: pt split: test metrics: - type: Accuracy value: 50.57 ---
Boana-7B-Instruct é um LLM treinado em dados da língua portuguesa. O modelo é baseado no [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf), uma versão de 7B de parâmetros do LLaMA-2. O projeto Boana tem como objetivo oferecer opções de LLM em língua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuários com menos poder computacional possam usufruir das LLMs. Em apoio aos países de língua portuguesa.
### Descrição do Modelo - **Desenvolvido por:** [Leonardo Souza](https://huggingface.co/lrds-code) - **Tipo do modelo:** LLaMA-Based - **Licença:** Academic Free License v3.0 - **Fine-tunado do modelo:** [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf) ## Como Usar ```python import torch from transformers import pipeline boana = pipeline('text-generation', model='lrds-code/boana-7b-instruct', torch_dtype=torch.bfloat16, device_map='auto') messages = [{'role':'system', 'content':''}, {'role':'user', 'content':'Quantos planetas existem no sistema solar?'}] prompt = boana.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) outputs = boana(prompt, max_new_tokens=256, do_sample=False, temperature=0, top_k=50, top_p=0.95) print(outputs[0]['generated_text']) #