File size: 3,886 Bytes
ca191d1
4764103
 
 
ca191d1
4764103
 
 
 
 
 
 
 
 
 
ca191d1
 
4764103
ca191d1
 
4764103
 
 
ca191d1
 
 
4764103
ca191d1
4764103
ca191d1
4764103
 
 
 
 
ca191d1
4764103
ca191d1
 
4764103
 
 
ca191d1
4764103
ca191d1
4764103
 
 
 
 
 
 
ca191d1
4764103
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ca191d1
4764103
 
 
 
ca191d1
 
4764103
 
ca191d1
4764103
 
 
 
 
 
 
ca191d1
4764103
 
 
 
 
 
 
 
 
ca191d1
4764103
ca191d1
4764103
ca191d1
4764103
ca191d1
4764103
ca191d1
4764103
 
 
ca191d1
4764103
ca191d1
4764103
ca191d1
4764103
ca191d1
4764103
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
---
language:
- pt
license: apache-2.0
library_name: transformers
tags:
- portuguese
- brasil
- gemma
- portugues
- instrucao
datasets:
- rhaymison/superset
base_model: google/gemma-2b-it
pipeline_tag: text-generation
---

# gemma-portuguese-2b-luana


<p align="center">
  <img src="https://raw.githubusercontent.com/rhaymisonbetini/huggphotos/main/tom-cat-2b.webp"  width="50%" style="margin-left:'auto' margin-right:'auto' display:'block'"/>
</p>



## Model description

updated: 2024-04-10 20:06

The gemma-portuguese-2b model is a portuguese model trained with the superset dataset with 250,000 instructions. 
The model is mainly focused on text generation and instruction.
The model was not trained on math and code tasks.
The model is generalist with focus on understand portuguese inferences. 
With this fine tuning for portuguese, you can adjust the model for a specific field.

## How to Use


```python
from transformers import AutoTokenizer, pipeline
import torch

model = "rhaymison/gemma-portuguese-luana-2b"

tokenizer = AutoTokenizer.from_pretrained(model)
pipeline = pipeline(
    "text-generation",
    model=model,
    model_kwargs={"torch_dtype": torch.bfloat16},
    device="cuda",
)

messages = [
   {
      "role": "system",
      "content": "Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido."
    },
    {"role": "user", "content": "Me conte sobre a ida do homem a Lua."},
]
prompt = pipeline.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = pipeline(
    prompt,
    max_new_tokens=256,
    do_sample=True,
    temperature=0.2,
    top_k=50,
    top_p=0.95
)
print(outputs[0]["generated_text"][len(prompt):].replace("model",""))

#A viagem à Lua foi um esforço monumental realizado pela Agência Espacial dos EUA entre 1969 e 1972.
#Foi um marco significativo na exploração espacial e na ciência humana.
#Aqui está uma visão geral de sua jornada: 1. O primeiro voo espacial humano foi o de Yuri Gagarin, que voou a Terra em 12 de abril de 1961.
```


```python
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer2 = AutoTokenizer.from_pretrained("rhaymison/gemma-portuguese-tom-cat-2b-it")
model2 = AutoModelForCausalLM.from_pretrained("rhaymison/gemma-portuguese-tom-cat-2b-it", device_map={"":0})
tokenizer2.pad_token = tokenizer2.eos_token
tokenizer2.add_eos_token = True
tokenizer2.add_bos_token, tokenizer2.add_eos_token
tokenizer2.padding_side = "right"
```

```python
def format_template( question:str):
    system_prompt = "Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido."
    text = f"""<bos>system
    {system_prompt}<end_of_turn>
    <start_of_turn>user
    ###instrução: {question} <end_of_turn>
    <start_of_turn>model"""
    return text

question = format_template("Me conte sobre a ida do homem a Lua")

device = "cuda:0"

inputs = tokenizer2(text, return_tensors="pt").to(device)

outputs = model2.generate(**inputs, max_new_tokens=256, do_sample=False)

output = tokenizer2.decode(outputs[0], skip_special_tokens=True, skip_prompt=True)
print(output.replace("model"," "))
```

### Comments

Any idea, help or report will always be welcome.

email: rhaymisoncristian@gmail.com

 <div style="display:flex; flex-direction:row; justify-content:left">
    <a href="https://www.linkedin.com/in/heleno-betini-2b3016175/" target="_blank">
    <img src="https://img.shields.io/badge/LinkedIn-0077B5?style=for-the-badge&logo=linkedin&logoColor=white">
  </a>
  <a href="https://github.com/rhaymisonbetini" target="_blank">
    <img src="https://img.shields.io/badge/GitHub-100000?style=for-the-badge&logo=github&logoColor=white">
  </a>
 </div>