Weni/WeniGPT-Agents-Mixtral-1.0.3-SFT

This model is a fine-tuned version of [mistralai/Mixtral-8x7B-Instruct-v0.1] on the dataset Weni/wenigpt-agent-1.4.0 with the SFT trainer. It is part of the WeniGPT project for Weni. Description: Experiment with SFT and a new tokenizer configuration for chat template of mixtral

It achieves the following results on the evaluation set: {'eval_loss': 1.0895439386367798, 'eval_runtime': 12.575, 'eval_samples_per_second': 3.658, 'eval_steps_per_second': 0.954, 'epoch': 2.97}

Intended uses & limitations

This model has not been trained to avoid specific intructions.

Training procedure

Finetuning was done on the model mistralai/Mixtral-8x7B-Instruct-v0.1 with the following prompt:

---------------------
System_prompt:
Agora você se chama {name}, você é {occupation} e seu objetivo é {chatbot_goal}. O adjetivo que mais define a sua personalidade é {adjective} e você se comporta da seguinte forma:
{instructions_formatted}

{context_statement}

Lista de requisitos:
 - Responda de forma natural, mas nunca fale sobre um assunto fora do contexto.
 - Nunca traga informações do seu próprio conhecimento.
 - Repito é crucial que você responda usando apenas informações do contexto.
 - Nunca mencione o contexto fornecido.
 - Nunca mencione a pergunta fornecida.
 - Gere a resposta mais útil possível para a pergunta usando informações do conexto acima.
 - Nunca elabore sobre o porque e como você fez a tarefa, apenas responda.


---------------------
Question:
{question}


---------------------
Response:
{answer}


---------------------

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 0.0002
  • per_device_train_batch_size: 1
  • per_device_eval_batch_size: 1
  • gradient_accumulation_steps: 8
  • num_gpus: 4
  • total_train_batch_size: 32
  • optimizer: AdamW
  • lr_scheduler_type: cosine
  • num_steps: 39
  • quantization_type: bitsandbytes
  • LoRA: ("\n - bits: 4\n - use_exllama: True\n - device_map: auto\n - use_cache: False\n - lora_r: 8\n - lora_alpha: 16\n - lora_dropout: 0.05\n - bias: none\n - target_modules: ['q_proj', 'k_proj', 'v_proj', 'o_proj', 'gate_proj', 'up_proj', 'down_proj']\n - task_type: CAUSAL_LM",)

Training results

Framework versions

Hardware

  • Cloud provided: runpod.io
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no pipeline_tag.

Model tree for Weni/WeniGPT-Agents-Mixtral-1.0.3-SFT

Finetuned
(47)
this model