versae's picture
Update README.md
a404080 verified
|
raw
history blame
1.15 kB
---
license: apache-2.0
tags:
- finetuned
- mlx
pipeline_tag: text-generation
inference: true
widget:
- messages:
- role: user
content: What is your favorite condiment?
---
# versae/filiberto-7B-instruct-exp1
This model was converted to MLX format from [`mistralai/Mistral-7B-Instruct-v0.2`](https://hf.co/mistralai/Mistral-7B-Instruct-v0.2) using mlx-lm version **0.9.0**.
Refer to the [original model card](https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2) for more details on the model.
## Use with mlx
```bash
pip install mlx-lm
```
```python
from mlx_lm import load, generate
prompt = """<s>[INST] Dado el siguiente texto OCR, corrige los fallos que encuentres y devuelve el texto corregido:
Otra vez, Don Iuan, me dad,
y otras mil vezes los braços.
Otra, y otras mil sean lazos
de nuestra antigua amistad.
Como venis?
Yo me siento
tan alegre, tan vfano,
tan venturoso, tan vano,
que no podrà el pensamiento
encareceros jamàs
las venturas que posseo,
porque el pensamiento creo [/INST]"""
model, tokenizer = load("versae/filiberto-7B-instruct-exp1")
response = generate(model, tokenizer, prompt=prompt, verbose=True)
```