illuninocte's picture
chore: improve documentation
d4166dc verified
---
library_name: peft
---
# LLMA finetuned for UFAM legislation Q/A
Este repositório contém parte de um modelo LLMA especializado para tarefa de responder perguntas relacionadas a legislação da UFAM. O código de treino e um sistema de RAG simples poder ser [encontrado neste notebook](https://colab.research.google.com/drive/1t9WJHiQrYiCt_XXdLz78DBFfIUWFhx1Z?usp=sharing).
## Finetune do Modelo
O modelo especializado teve como base o Llama-2-7b-chat-hf com os seguintes parâmetros para o LoRA e a quantização do modelo:
```python
LoraConfig(
lora_alpha=lora_alpha,
lora_dropout=lora_dropout,
r=lora_r,
bias="none",
task_type="CAUSAL_LM",
)
BitsAndBytesConfig(
load_in_4bit=use_4bit,
bnb_4bit_quant_type=bnb_4bit_quant_type,
bnb_4bit_compute_dtype=compute_dtype,
bnb_4bit_use_double_quant=use_nested_quant,
)
```
## Avaliação do Modelo
O modelo foi treinado utilizando [este dataset](https://huggingface.co/datasets/illuninocte/llama-ufam-legislacao) no decorrer de três épocas com todos os dados a fim de melhorar sua performance. Ele começou com uma LOSS de `3.4873` e baixou até `1.0381` durante o processo de treino.
### Exemplos de Perguntas e Respostas
1. **Quando a terceira solicitação de matrícula ocorre?**
```
A terceira solicitação de matrícula ocorre em 15 de janeiro do ano letivo correspondente
```
2. **Qual é a missão da pró-reitoria de ensino de graduação (PROEG)?**
```
A missão da PROEG é promover a qualidade do ensino de graduação e a formação de profissionais do magistério.
```
3. **Qual documentação deve ser enviada à coordenação de curso após a prática de campo?**
```
Deve ser enviada uma notificação de conclusão do campo de práticas, com o nome do aluno, data e local do campo, e o nome do coordenador de curso.
```
## Training procedure
The following `bitsandbytes` quantization config was used during training:
- load_in_8bit: False
- load_in_4bit: True
- llm_int8_threshold: 6.0
- llm_int8_skip_modules: None
- llm_int8_enable_fp32_cpu_offload: False
- llm_int8_has_fp16_weight: False
- bnb_4bit_quant_type: nf4
- bnb_4bit_use_double_quant: False
- bnb_4bit_compute_dtype: float16
### Framework versions
- PEFT 0.4.0