|
--- |
|
library_name: peft |
|
--- |
|
# LLMA finetuned for UFAM legislation Q/A |
|
Este repositório contém parte de um modelo LLMA especializado para tarefa de responder perguntas relacionadas a legislação da UFAM. O código de treino e um sistema de RAG simples poder ser [encontrado neste notebook](https://colab.research.google.com/drive/1t9WJHiQrYiCt_XXdLz78DBFfIUWFhx1Z?usp=sharing). |
|
|
|
## Finetune do Modelo |
|
O modelo especializado teve como base o Llama-2-7b-chat-hf com os seguintes parâmetros para o LoRA e a quantização do modelo: |
|
|
|
```python |
|
LoraConfig( |
|
lora_alpha=lora_alpha, |
|
lora_dropout=lora_dropout, |
|
r=lora_r, |
|
bias="none", |
|
task_type="CAUSAL_LM", |
|
) |
|
|
|
|
|
BitsAndBytesConfig( |
|
load_in_4bit=use_4bit, |
|
bnb_4bit_quant_type=bnb_4bit_quant_type, |
|
bnb_4bit_compute_dtype=compute_dtype, |
|
bnb_4bit_use_double_quant=use_nested_quant, |
|
) |
|
``` |
|
|
|
## Avaliação do Modelo |
|
O modelo foi treinado utilizando [este dataset](https://huggingface.co/datasets/illuninocte/llama-ufam-legislacao) no decorrer de três épocas com todos os dados a fim de melhorar sua performance. Ele começou com uma LOSS de `3.4873` e baixou até `1.0381` durante o processo de treino. |
|
|
|
### Exemplos de Perguntas e Respostas |
|
1. **Quando a terceira solicitação de matrícula ocorre?** |
|
|
|
``` |
|
A terceira solicitação de matrícula ocorre em 15 de janeiro do ano letivo correspondente |
|
``` |
|
|
|
2. **Qual é a missão da pró-reitoria de ensino de graduação (PROEG)?** |
|
|
|
``` |
|
A missão da PROEG é promover a qualidade do ensino de graduação e a formação de profissionais do magistério. |
|
``` |
|
|
|
3. **Qual documentação deve ser enviada à coordenação de curso após a prática de campo?** |
|
|
|
``` |
|
Deve ser enviada uma notificação de conclusão do campo de práticas, com o nome do aluno, data e local do campo, e o nome do coordenador de curso. |
|
``` |
|
|
|
|
|
## Training procedure |
|
|
|
|
|
The following `bitsandbytes` quantization config was used during training: |
|
- load_in_8bit: False |
|
- load_in_4bit: True |
|
- llm_int8_threshold: 6.0 |
|
- llm_int8_skip_modules: None |
|
- llm_int8_enable_fp32_cpu_offload: False |
|
- llm_int8_has_fp16_weight: False |
|
- bnb_4bit_quant_type: nf4 |
|
- bnb_4bit_use_double_quant: False |
|
- bnb_4bit_compute_dtype: float16 |
|
|
|
### Framework versions |
|
|
|
|
|
- PEFT 0.4.0 |
|
|