File size: 3,353 Bytes
a04fbcb
 
93dd20c
a04fbcb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7252620
b3f4db6
 
7252620
 
 
 
 
 
 
 
 
 
 
 
b3f4db6
7252620
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b3f4db6
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
a04fbcb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
---
license: apache-2.0
base_model: bertin-project/Gromenauer-7B
datasets:
- bertin-project/bonanza-hf
- bertin-project/zenobia-instruct-hf
language:
- es
- ca
pipeline_tag: text-generation
---
# Gromenauer-7B-Instruct

<div align=center>
<img alt="gromenauer-7B logo" src="https://huggingface.co/bertin-project/Gromenauer-7B/resolve/main/images/gromenauer.png" width="200px">
</div>

## Overview
Gromenauer-7B-Instruct is an instruct fine-tuned version of the [bertin-project/Gromenauer-7B](https://huggingface.co/bertin-project/Gromenauer-7B) model using the [bertin-project/bonanza-hf](https://huggingface.co/datasets/bertin-project/bonanza-hf) and [bertin-project/zenobia-instruct-hf](https://huggingface.co/datasets/bertin-project/zenobia-instruct-hf) datasets.

## Usage examples

### Multinomial sampling example:
```python
# Use a pipeline as a high-level helper
from transformers import pipeline

messages = [
    {"role": "system", "content": "Eres un modelo experto en poesía española."},
    {"role": "user", "content": "Escribe un poema sobre la pérdida de un coche querido en forma de pareado."},
]

generate_kwargs = {
    "do_sample": True,
    "temperature": 0.7,
    "max_new_tokens": 150,
}

pipe = pipeline("text-generation", model="bertin-project/Gromenauer-7B-Instruct", generate_kwargs=generate_kwargs)
pipe(messages)
```
Output:
```
<|system|>
Eres un modelo experto en poesía española.</s> 
<|user|>
Escribe un poema sobre la pérdida de un coche querido en forma de pareado.</s> 
<|assistant|>
Una mañana de invierno salí al sol peregrino,
y encontré mi auto cogiendo una lechuga en el camino.</s>
```

### Contrastive search example:

```python
messages = [
    {"role": "system", "content": "Eres un asistente en español. Responde de manera exacta y concisa."},
    {"role": "user", "content": "¿Por qué es famosa Sevilla?"},
]

generate_kwargs = {
    "penalty_alpha": 0.6,
    "max_new_tokens": 300,
}
pipe = pipeline("text-generation", model="bertin-project/Gromenauer-7B-Instruct", generate_kwargs=generate_kwargs)
pipe(messages)
```

Output:
```
<|system|>
Eres un asistente en español. Responde de manera exacta y concisa.</s> 
<|user|>
¿Por qué es famosa Sevilla?</s> 
<|assistant|>
Sevilla es conocida por su belleza arquitectónica, con edificios como la Giralda, el Alcázar y la Catedral, así como por sus fiestas populares como la Feria de Abril y Semana Santa. Además, es la capital de Andalucía y uno de los principales centros económicos del sur de España.</s>
```

## Model Details

- **Model Type**: Mistral
- **Sequence Length**: 8192
- **Hidden Dimension**: 4096
- **Intermediate Dimension**: 14336
- **Number of Layers**: 32
- **Number of Attention Heads**: 32
- **Number of Key-Value Heads**: 8
- **Activation Function**: SiLU
- **Initializer Range**: 0.02
- **Layer Norm Epsilon**: 1.0e-05
- **Use Flash Attention**: Yes
- **Gradient Checkpointing**: Enabled (Block Size: 5)
- **Sliding Window Attention**: 4096
- **Use Bias**: No

## Training Details

- **Tokenizer**: [HuggingFaceH4/zephyr-7b-beta](https://huggingface.co/HuggingFaceH4/zephyr-7b-beta)
- **Batch Size**: 512
- **Learning Rate**: 1e-5
- **Optimizer**: Adam with beta1=0.9, beta2=0.95, epsilon=1e-8
- **Weight Decay**: 0.1
- **Warmup Steps**: 200
- **Learning Rate Schedule**: Cosine
- **Number of Training Epochs**: 5