josu commited on
Commit
4964527
1 Parent(s): 4fd647f

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +60 -0
README.md ADDED
@@ -0,0 +1,60 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - pt
4
+ widget:
5
+ - text: Explique o que é inteligência artificial.
6
+ ---
7
+
8
+
9
+ ``` python
10
+
11
+
12
+ from transformers import GenerationConfig
13
+ from transformers import AutoModelForCausalLM, AutoTokenizer
14
+
15
+ model = AutoModelForCausalLM.from_pretrained("josu/gpt-neo-pt-br")
16
+ tokenizer = AutoTokenizer.from_pretrained("josu/gpt-neo-pt-br")
17
+
18
+
19
+ def generate_prompt(instruction, input=None):
20
+ if input:
21
+ return f"""Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido.
22
+
23
+ ### Instrução:
24
+ {instruction}
25
+
26
+ ### Entrada:
27
+ {input}
28
+
29
+ ### Resposta:"""
30
+ else:
31
+ return f"""Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que complete adequadamente o pedido.
32
+
33
+ ### Instrução:
34
+ {instruction}
35
+
36
+ ### Resposta:"""
37
+
38
+ generation_config = GenerationConfig(
39
+ temperature=0.2,
40
+ top_p=0.75,
41
+ num_beams=4,
42
+ )
43
+ def evaluate(instruction, input=None):
44
+ prompt = generate_prompt(instruction, input)
45
+ inputs = tokenizer(prompt, return_tensors="pt")
46
+ input_ids = inputs["input_ids"].cuda()
47
+ generation_output = model.generate(
48
+ input_ids=input_ids,
49
+ generation_config=generation_config,
50
+ return_dict_in_generate=True,
51
+ output_scores=True,
52
+ max_new_tokens=256
53
+ )
54
+ content = []
55
+ for s in generation_output.sequences:
56
+ output = tokenizer.decode(s)
57
+ content.append(output.split("### Resposta:")[1].strip())
58
+ return content
59
+
60
+ ```