--- language: - pt - en license: llama2 library_name: transformers tags: - llama - peft - portuguese - instruct datasets: - ju-resplande/rebel-pt - paulofinardi/OIG_small_chip2_portuguese_brasil - Guilherme34/Cabrita-lora-ptbr - dominguesm/Canarim-Instruct-PTBR-Dataset pipeline_tag: text-generation model-index: - name: boana-7b-instruct results: - task: type: text-generation dataset: name: XWinograd (pt) type: Muennighoff/xwinograd config: pt split: test metrics: - type: Accuracy value: 50.57 ---
# PT - README
# Boana-7B-Instruct

Boana Logo

Boana-7B-Instruct é um LLM treinado em dados da língua portuguesa. O modelo é baseado no [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf), uma versão de 7B de parâmetros do LLaMA-2. O projeto Boana tem como objetivo oferecer opções de LLM em língua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuários com menos poder computacional possam usufruir das LLMs. Em apoio aos países de língua portuguesa.

Countries Logo

### Descrição do Modelo - **Desenvolvido por:** [Leonardo Souza](https://huggingface.co/lrds-code) - **Tipo do modelo:** LLaMA-Based - **Licença:** Academic Free License v3.0 - **Fine-tunado do modelo:** [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf) ## Estilo do Prompt Usamos o mesmo prompt usado no fine-tune do modelo [Cabrita](https://huggingface.co/22h/cabrita-lora-v0-1). Você pode saber mais no repositório oficial no [GitHub](https://github.com/22-hours/cabrita/blob/main/notebooks/train_lora.ipynb). ## Avaliação O modelo foi avaliado no conjunto de dados [XWinograd - pt](https://huggingface.co/datasets/Muennighoff/xwinograd) que consiste em uma simples task de fill-mask. Alcançamos resultados que variaram entre 40.03 e 50.57 de acurácia, dependendo da configuração de prompt utilizada. Não foi aplicado nenhum tipo de correção na saída do modelo, apenas realizamos uma etapa de pós processamento para extração do valor de interesse. ## Como Usar ```python from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig def GeneratePrompt(input, instruction): if input!='' and instruction!=0: return f'''Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido. ### Instrução: {instruction} ### Entrada: {input}''' else: return f'''Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que complete adequadamente o pedido. ### Instrução: {instruction} ### ''' model_config = GenerationConfig.from_model_config(model.generation_config) model.generation_config.temperature = 0.9 # Você pode variar esse valor entre 0 e 1. model = AutoModelForCausalLM.from_pretrained('lrds-code/boana-7b-instruct') tokenizer = AutoTokenizer.from_pretrained('lrds-code/boana-7b-instruct') instruction = 'Como desenvolver habilidades de programação em python?' text = GeneratePrompt(input='', instruction=instruction) inputs = tokenizer(text, return_tensors='pt') outputs = model.generate(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'], generation_config=model_config, repetition_penalty=1.1, do_sample=False # repetition_penalty: # Observamos que em alguns casos de entrada o modelo repetiu excessivamente algumas palavras. # Esse parâmetro é usado para tentar reduzir esse comportamento. # Atribuir um valor muito alto para esse parâmetro pode fazer com que o modelo busque excessivamente por outras palavras e, sendo assim, talvez usar palavras da língua inglesa na saída. print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ## Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que complete adequadamente o pedido. ## ### Instrução: ## Como desenvolver habilidades de programação em python? ## ### Resposta: ## Aqui estão algumas dicas para aprender Python: ## 1. Comece com os fundamentos. Aprenda as principais palavras-chave e conceitos básicos, como variáveis, tipos de dados, funções, módulos, etc. ## 2. Pratique com exercícios. Experimentar com diferentes tipos de problemas pode ajudá-lo a entender melhor o idioma. ## 3. Leia documentação. Aprenda sobre as funcionalidades específicas do Python e como elas são usadas. ## 4. Use recursos on-line. Há muitos recursos disponíveis online que podem ajudá-lo a aprender Python, como cursos, tutoriales, livros, etc. ## 5. Participe de comunidades. Encontre um grupo de pessoas que compartilham seus interesses e se conectem com eles. ## 6. Faça perguntas. Se você tiver alguma dúvida ou precisar de ajuda, não hesite em perguntar. ## 7. Aprenda com outros. Aprenda com outros programadores e compartilhe suas próprias ideias. ## 8. Desenvolva projetos. Crie algo que possa ser útil para você ou para outras pessoas. ## 9. Lembre-se de que aprender é um processo contínuo. Não se esqueça de continuar praticando e aprendendo novas coisas. ## 10. Certifique-se de ter paciência. Aprender um idioma é um processo lento e exigente, mas valerá a pena. ```
# EN - README
# Boana-7B-Instruct

Boana Logo

Boana-7B-Instruct is an LLM trained on portuguese language data. The model is based on [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf), a 7B parameter version of LLaMA-2. The LLM Boana project aims to provide more LLM options in portuguese, while also providing less complex models so that users with less computational power can take advantage of the LLMs. In support of portuguese-speaking countries.

Countries Logo

### Model Description - **Developed by:** [Leonardo Souza](https://huggingface.co/lrds-code) - **Model type:** LLaMA-Based - **License:** Academic Free License v3.0 - **Finetuned from model:** [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf) ## Prompt Style We used the same prompt used in the fine-tune of the [Cabrita](https://huggingface.co/22h/cabrita-lora-v0-1) model. You can find out more in the official repository on [GitHub](https://github.com/22-hours/cabrita/blob/main/notebooks/train_lora.ipynb). ## Evaluation The model was evaluated on the dataset [XWinograd - pt](https://huggingface.co/datasets/Muennighoff/xwinograd) which consists of a simple fill-mask task. We achieved results that varied between 40.03 and 50.57 accuracy, depending on the prompt configuration used. No type of correction was applied to the model output, we only carried out a post-processing step to extract the value of interest. ## How to Use ```python from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig def GeneratePrompt(input, instruction): if input!='' and instruction!=0: return f'''Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido. ### Instrução: {instruction} ### Entrada: {input}''' else: return f'''Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que complete adequadamente o pedido. ### Instrução: {instruction} ### ''' model_config = GenerationConfig.from_model_config(model.generation_config) model.generation_config.temperature = 0.9 # You can vary this value between 0 and 1. model = AutoModelForCausalLM.from_pretrained('lrds-code/boana-7b-instruct') tokenizer = AutoTokenizer.from_pretrained('lrds-code/boana-7b-instruct') instruction = 'Como desenvolver habilidades de programação em python?' text = GeneratePrompt(input='', instruction=instruction) inputs = tokenizer(text, return_tensors='pt') outputs = model.generate(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'], generation_config=model_config, repetition_penalty=1.1, do_sample=False) # repetition_penalty: # We observed that in some input cases the model began to repeat words excessively in its output. # This parameter is used to try to reduce this behavior. # Setting a very high value for this parameter can cause the model to search excessively for new words and, therefore, may use English words in the output. print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ## Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que complete adequadamente o pedido. ## ### Instrução: ## Como desenvolver habilidades de programação em python? ## ### Resposta: ## Aqui estão algumas dicas para aprender Python: ## 1. Comece com os fundamentos. Aprenda as principais palavras-chave e conceitos básicos, como variáveis, tipos de dados, funções, módulos, etc. ## 2. Pratique com exercícios. Experimentar com diferentes tipos de problemas pode ajudá-lo a entender melhor o idioma. ## 3. Leia documentação. Aprenda sobre as funcionalidades específicas do Python e como elas são usadas. ## 4. Use recursos on-line. Há muitos recursos disponíveis online que podem ajudá-lo a aprender Python, como cursos, tutoriales, livros, etc. ## 5. Participe de comunidades. Encontre um grupo de pessoas que compartilham seus interesses e se conectem com eles. ## 6. Faça perguntas. Se você tiver alguma dúvida ou precisar de ajuda, não hesite em perguntar. ## 7. Aprenda com outros. Aprenda com outros programadores e compartilhe suas próprias ideias. ## 8. Desenvolva projetos. Crie algo que possa ser útil para você ou para outras pessoas. ## 9. Lembre-se de que aprender é um processo contínuo. Não se esqueça de continuar praticando e aprendendo novas coisas. ## 10. Certifique-se de ter paciência. Aprender um idioma é um processo lento e exigente, mas valerá a pena. ```