malhajar commited on
Commit
a71293b
·
verified ·
1 Parent(s): f9a37ef

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -4
README.md CHANGED
@@ -91,11 +91,11 @@ model-index:
91
  ---
92
 
93
  <img src="https://path.to/your/legml-image.png" alt="LegML-v0.1" width="500"/>
94
- <img src="https://path.to/your/legml-image.png" alt="LegML-v0.1" width="500"/>
95
 
96
- # LegML-v0.1
97
 
98
- LegML-v0.1 est un grand modèle de langage (LLM) en français, capable de gérer une multitude de tâches telles que la programmation, les mathématiques, et bien d'autres domaines. Ce modèle est une version étendue d'un LLM basé sur Qwen, optimisé spécifiquement pour le français. Il a été entraîné sur un vaste corpus de données françaises nettoyées et annotées avec soin pour exécuter des instructions en français avec précision et cohérence.
 
 
99
 
100
  L'entraînement intensif a été réalisé sur 4 GPU A100 pendant une durée de deux jours, utilisant cet ensemble de données spécialisé pour améliorer ses performances globales.
101
 
@@ -111,7 +111,7 @@ L'entraînement intensif a été réalisé sur 4 GPU A100 pendant une durée de
111
  from transformers import AutoModelForCausalLM, AutoTokenizer
112
  device = "cuda" # Appareil sur lequel charger le modèle
113
 
114
- model_name = "VotreNomUtilisateur/LegML-v0.1"
115
  model = AutoModelForCausalLM.from_pretrained(
116
  model_name,
117
  torch_dtype="auto",
 
91
  ---
92
 
93
  <img src="https://path.to/your/legml-image.png" alt="LegML-v0.1" width="500"/>
 
94
 
 
95
 
96
+ # legml-v0.1
97
+
98
+ legml-v0.1 est un grand modèle de langage (LLM) en français, capable de gérer une multitude de tâches telles que la programmation, les mathématiques, et bien d'autres domaines. Ce modèle est une version étendue d'un LLM basé sur Qwen, optimisé spécifiquement pour le français. Il a été entraîné sur un vaste corpus de données françaises nettoyées et annotées avec soin pour exécuter des instructions en français avec précision et cohérence.
99
 
100
  L'entraînement intensif a été réalisé sur 4 GPU A100 pendant une durée de deux jours, utilisant cet ensemble de données spécialisé pour améliorer ses performances globales.
101
 
 
111
  from transformers import AutoModelForCausalLM, AutoTokenizer
112
  device = "cuda" # Appareil sur lequel charger le modèle
113
 
114
+ model_name = "legmlai/legml-v0.1"
115
  model = AutoModelForCausalLM.from_pretrained(
116
  model_name,
117
  torch_dtype="auto",