HirCoir's picture
Update README.md
70151c7 verified
|
raw
history blame
1.44 kB
metadata
language:
  - es
  - en
tags:
  - gguf
  - llama.cpp
  - phi-3
  - phi-3-mini
  - 128k
  - phi-3-mini-128k

Phi-3-mini-128k-instruct

Image

Requisitos

Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio:

Para instalar llama.cpp, sigue estos pasos:

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make

Uso del modelo

La plantilla del modelo es la siguiente:

<|user|>\n{prompt} <|end|>\n<|assistant|>

Puedes utilizar el modelo en llama.cpp con el siguiente comando:

./main -m ggml-model-Q8_0.gguf -p "<|user|>\n¿Cómo te llamas? <|end|>\n<|assistant|>" --log-disable

LM Studio config-presets

Filename:openchat.preset.json

{
  "name": "OpenChat",
  "inference_params": {
    "input_prefix": "<|user|>\n",
    "input_suffix": "<|end|>\n<|assistant|>",
    "antiprompt": [
      "<|user|>\n",
      "<|end|>\n<|assistant|>"
    ],
    "pre_prompt": "<|system|>\nYou are a helpful AI assistant.<|end|>",
    "pre_prompt_prefix": "",
    "pre_prompt_suffix": ""
  },
  "load_params": {
    "rope_freq_scale": 0,
    "rope_freq_base": 0
  }
}

Referencias