|
--- |
|
language: |
|
- es |
|
- en |
|
tags: |
|
- gguf |
|
- llama.cpp |
|
- phi-3 |
|
- phi-3-mini |
|
- 128k |
|
- phi-3-mini-128k |
|
--- |
|
# Phi-3-mini-128k-instruct |
|
![Image](Phi-3.jpg) |
|
|
|
## Requisitos |
|
|
|
Para usar este modelo, necesitas tener instalado llama.cpp en tu equipo. Puedes obtener llama.cpp desde el siguiente repositorio: |
|
|
|
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp) |
|
|
|
Para instalar llama.cpp, sigue estos pasos: |
|
|
|
```bash |
|
git clone https://github.com/ggerganov/llama.cpp |
|
cd llama.cpp |
|
make |
|
``` |
|
|
|
## Uso del modelo |
|
|
|
La plantilla del modelo es la siguiente: |
|
|
|
```plaintext |
|
<|user|>\n{prompt} <|end|>\n<|assistant|> |
|
``` |
|
|
|
Puedes utilizar el modelo en llama.cpp con el siguiente comando: |
|
|
|
```bash |
|
./main -m ggml-model-Q8_0.gguf -p "<|user|>\n¿Cómo te llamas? <|end|>\n<|assistant|>" --log-disable |
|
``` |
|
|
|
LM Studio config-presets |
|
|
|
Filename:openchat.preset.json |
|
```json |
|
{ |
|
"name": "OpenChat", |
|
"inference_params": { |
|
"input_prefix": "<|user|>\n", |
|
"input_suffix": "<|end|>\n<|assistant|>", |
|
"antiprompt": [ |
|
"<|user|>\n", |
|
"<|end|>\n<|assistant|>" |
|
], |
|
"pre_prompt": "<|system|>\nYou are a helpful AI assistant.<|end|>", |
|
"pre_prompt_prefix": "", |
|
"pre_prompt_suffix": "" |
|
}, |
|
"load_params": { |
|
"rope_freq_scale": 0, |
|
"rope_freq_base": 0 |
|
} |
|
} |
|
``` |
|
|
|
## Referencias |
|
|
|
- [Repositorio original](https://huggingface.co/microsoft/Phi-3-mini-4k-instruct) |
|
- [Repositorio de llama.cpp](https://github.com/ggerganov/llama.cpp) |