jpacifico commited on
Commit
3c339bf
1 Parent(s): 5484488

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +35 -32
README.md CHANGED
@@ -32,38 +32,41 @@ Quantized GGUF version : coming soon
32
  ### Usage
33
 
34
  ```python
35
- def stream_response(instruction, max_new_tokens=500, temperature=0.0, do_sample=False):
36
- messages = [
37
- {"role": "system", "content": "Vous êtes un assistant numérique serviable. Veuillez fournir des informations sûres, éthiques et précises à l'utilisateur."},
38
- {"role": "user", "content": instruction}
39
- ]
40
-
41
- conversation_history = ""
42
- for msg in messages:
43
- conversation_history += msg["role"] + ": " + msg["content"] + "\n"
44
-
45
- inputs = tokenizer(conversation_history, return_tensors="pt", padding=True, truncation=True)
46
- input_ids = inputs['input_ids'].to("cuda")
47
-
48
- output_sequences = model.generate(
49
- input_ids=input_ids,
50
- max_length=input_ids.shape[1] + max_new_tokens,
51
- temperature=temperature,
52
- do_sample=do_sample,
53
- pad_token_id=tokenizer.eos_token_id,
54
- eos_token_id=None
55
- )
56
-
57
- generated_text = tokenizer.decode(output_sequences[0], skip_special_tokens=True)
58
- last_user_message = "user: " + instruction
59
- response_start_index = generated_text.rfind(last_user_message) + len(last_user_message)
60
- response = generated_text[response_start_index:].strip()
61
-
62
- print(response)
63
-
64
- # Exemple d'utilisation
65
- instruction = "propose moi des façons de combiner des bananes et des pitayas pour les consommer."
66
- stream_response(instruction)
 
 
 
67
  ```
68
 
69
  ### Limitations
 
32
  ### Usage
33
 
34
  ```python
35
+ import torch
36
+ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
37
+
38
+ torch.random.manual_seed(0)
39
+
40
+ model = AutoModelForCausalLM.from_pretrained(
41
+ "microsoft/Phi-3-mini-4k-instruct",
42
+ device_map="cuda",
43
+ torch_dtype="auto",
44
+ trust_remote_code=True,
45
+ )
46
+ tokenizer = AutoTokenizer.from_pretrained("jpacifico/French-Alpaca-Phi-3-mini-128k-instruct-v1.0")
47
+
48
+ messages = [
49
+ {"role": "system", "content": "Vous êtes un assistant numérique serviable. Veuillez fournir des informations sûres, éthiques et précises à l'utilisateur."},
50
+ {"role": "user", "content": "Pouvez-vous fournir des façons de manger des combinaisons de bananes et de fruits du dragon ?"},
51
+ {"role": "assistant", "content": "Bien sûr ! Voici quelques façons de manger des bananes et des fruits du dragon ensemble : 1. Smoothie à la banane et au fruit du dragon : mixez des bananes et des fruits du dragon avec un peu de lait et de miel. 2. Salade de banane et de fruit du dragon : mélangez des bananes tranchées et des fruits du dragon avec un peu de jus de citron et de miel."},
52
+ {"role": "user", "content": "Et pour résoudre une équation 2x + 3 = 7 ?"},
53
+ ]
54
+
55
+ pipe = pipeline(
56
+ "text-generation",
57
+ model=model,
58
+ tokenizer=tokenizer,
59
+ )
60
+
61
+ generation_args = {
62
+ "max_new_tokens": 500,
63
+ "return_full_text": False,
64
+ "temperature": 0.0,
65
+ "do_sample": False,
66
+ }
67
+
68
+ output = pipe(messages, **generation_args)
69
+ print(output[0]['generated_text'])
70
  ```
71
 
72
  ### Limitations