--- library_name: peft --- # LLMA finetuned for UFAM legislation Q/A Este repositório contém parte de um modelo LLMA especializado para tarefa de responder perguntas relacionadas a legislação da UFAM. O código de treino e um sistema de RAG simples poder ser [encontrado neste notebook](https://colab.research.google.com/drive/1t9WJHiQrYiCt_XXdLz78DBFfIUWFhx1Z?usp=sharing). ## Finetune do Modelo O modelo especializado teve como base o Llama-2-7b-chat-hf com os seguintes parâmetros para o LoRA e a quantização do modelo: ```python LoraConfig( lora_alpha=lora_alpha, lora_dropout=lora_dropout, r=lora_r, bias="none", task_type="CAUSAL_LM", ) BitsAndBytesConfig( load_in_4bit=use_4bit, bnb_4bit_quant_type=bnb_4bit_quant_type, bnb_4bit_compute_dtype=compute_dtype, bnb_4bit_use_double_quant=use_nested_quant, ) ``` ## Avaliação do Modelo O modelo foi treinado utilizando [este dataset](https://huggingface.co/datasets/illuninocte/llama-ufam-legislacao) no decorrer de três épocas com todos os dados a fim de melhorar sua performance. Ele começou com uma LOSS de `3.4873` e baixou até `1.0381` durante o processo de treino. ### Exemplos de Perguntas e Respostas 1. **Quando a terceira solicitação de matrícula ocorre?** ``` A terceira solicitação de matrícula ocorre em 15 de janeiro do ano letivo correspondente ``` 2. **Qual é a missão da pró-reitoria de ensino de graduação (PROEG)?** ``` A missão da PROEG é promover a qualidade do ensino de graduação e a formação de profissionais do magistério. ``` 3. **Qual documentação deve ser enviada à coordenação de curso após a prática de campo?** ``` Deve ser enviada uma notificação de conclusão do campo de práticas, com o nome do aluno, data e local do campo, e o nome do coordenador de curso. ``` ## Training procedure The following `bitsandbytes` quantization config was used during training: - load_in_8bit: False - load_in_4bit: True - llm_int8_threshold: 6.0 - llm_int8_skip_modules: None - llm_int8_enable_fp32_cpu_offload: False - llm_int8_has_fp16_weight: False - bnb_4bit_quant_type: nf4 - bnb_4bit_use_double_quant: False - bnb_4bit_compute_dtype: float16 ### Framework versions - PEFT 0.4.0