|
--- |
|
license: apache-2.0 |
|
tags: |
|
- finetuned |
|
- mlx |
|
pipeline_tag: text-generation |
|
inference: true |
|
widget: |
|
- messages: |
|
- role: user |
|
content: What is your favorite condiment? |
|
--- |
|
|
|
# versae/filiberto-7B-instruct-exp1 |
|
This model was converted to MLX format from [`mistralai/Mistral-7B-Instruct-v0.2`](https://hf.co/mistralai/Mistral-7B-Instruct-v0.2) using mlx-lm version **0.9.0**. |
|
Refer to the [original model card](https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2) for more details on the model. |
|
## Use with mlx |
|
|
|
```bash |
|
pip install mlx-lm |
|
``` |
|
|
|
```python |
|
from mlx_lm import load, generate |
|
|
|
prompt = """<s>[INST] Dado el siguiente texto OCR, corrige los fallos que encuentres y devuelve el texto corregido: |
|
|
|
Otra vez, Don Iuan, me dad, |
|
y otras mil vezes los braços. |
|
Otra, y otras mil sean lazos |
|
de nuestra antigua amistad. |
|
Como venis? |
|
Yo me siento |
|
tan alegre, tan vfano, |
|
tan venturoso, tan vano, |
|
que no podrà el pensamiento |
|
encareceros jamàs |
|
las venturas que posseo, |
|
porque el pensamiento creo [/INST]""" |
|
|
|
model, tokenizer = load("versae/filiberto-7B-instruct-exp1") |
|
response = generate(model, tokenizer, prompt=prompt, verbose=True) |
|
``` |
|
|