recogna commited on
Commit
46a2036
1 Parent(s): 26e2b03

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +10 -8
README.md CHANGED
@@ -30,6 +30,8 @@ inference: false
30
  Bode é um modelo de linguagem (LLM) para o português desenvolvido a partir do modelo Llama 2 por meio de fine-tuning no dataset Alpaca, traduzido para o português pelos autores do [Cabrita](https://huggingface.co/22h/cabrita-lora-v0-1). Este modelo é projetado para tarefas de processamento de linguagem natural em português, como geração de texto, tradução automática, resumo de texto e muito mais.
31
  O objetivo do desenvolvimento do BODE é suprir a escassez de LLMs para a língua portuguesa. Modelos clássicos, como o próprio LLaMa, são capazes de responder prompts em português, mas estão sujeitos a muitos erros de gramática e, por vezes, geram respostas na língua inglesa. Ainda há poucos modelos em português disponíveis para uso gratuito e, segundo nosso conhecimento, não modelos disponíveis com 13b de parâmetros ou mais treinados especificamente com dados em português.
32
 
 
 
33
  ## Detalhes do Modelo
34
 
35
  - **Modelo Base:** Llama 2
@@ -123,16 +125,16 @@ O modelo Bode foi treinado por fine-tuning a partir do modelo Llama 2 usando o d
123
 
124
  ## Citação
125
 
126
- Se você usar o modelo de linguagem Bode em sua pesquisa ou projeto, por favor, cite-o da seguinte maneira:
127
 
128
  ```
129
- @misc{bode13b_2023,
130
- author = {Garcia, Gabriel Lino and Paiola, Pedro Henrique and Morelli, Luis Henrique and Candido, Giovani and Candido Junior, Arnaldo and Jodas, Danilo Samuel and Guilherme, Ivan Rizzo and Papa, João Paulo and Penteado, Bruno Elias},
131
- title = {{BODE-13b}},
132
- year = 2023,
133
- url = {https://huggingface.co/recogna-nlp/bode-7b-alpaca-pt-br},
134
- doi = {10.57967/hf/1299},
135
- publisher = {Hugging Face}
136
  }
137
  ```
138
 
 
30
  Bode é um modelo de linguagem (LLM) para o português desenvolvido a partir do modelo Llama 2 por meio de fine-tuning no dataset Alpaca, traduzido para o português pelos autores do [Cabrita](https://huggingface.co/22h/cabrita-lora-v0-1). Este modelo é projetado para tarefas de processamento de linguagem natural em português, como geração de texto, tradução automática, resumo de texto e muito mais.
31
  O objetivo do desenvolvimento do BODE é suprir a escassez de LLMs para a língua portuguesa. Modelos clássicos, como o próprio LLaMa, são capazes de responder prompts em português, mas estão sujeitos a muitos erros de gramática e, por vezes, geram respostas na língua inglesa. Ainda há poucos modelos em português disponíveis para uso gratuito e, segundo nosso conhecimento, não modelos disponíveis com 13b de parâmetros ou mais treinados especificamente com dados em português.
32
 
33
+ Acesse o [artigo](https://arxiv.org/abs/2401.02909) para mais informações sobre o Bode.
34
+
35
  ## Detalhes do Modelo
36
 
37
  - **Modelo Base:** Llama 2
 
125
 
126
  ## Citação
127
 
128
+ Se você deseja utilizar o Bode em sua pesquisa, pode citar este [artigo](https://arxiv.org/abs/2401.02909) que discute o modelo com mais detalhes. Cite-o da seguinte maneira:
129
 
130
  ```
131
+ @misc{bode2024,
132
+ title={Introducing Bode: A Fine-Tuned Large Language Model for Portuguese Prompt-Based Task},
133
+ author={Gabriel Lino Garcia and Pedro Henrique Paiola and Luis Henrique Morelli and Giovani Candido and Arnaldo Cândido Júnior and Danilo Samuel Jodas and Luis C. S. Afonso and Ivan Rizzo Guilherme and Bruno Elias Penteado and João Paulo Papa},
134
+ year={2024},
135
+ eprint={2401.02909},
136
+ archivePrefix={arXiv},
137
+ primaryClass={cs.CL}
138
  }
139
  ```
140