Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -112,9 +112,10 @@ login(token=os.environ["HF_ACCESS_TOKEN"]) #for read access!!!!
|
|
112 |
#Modelle und Tokenizer
|
113 |
|
114 |
#Alternativ mit beliebigen Modellen:
|
115 |
-
base_model = "project-baize/baize-v2-7b" #load_8bit = True (in load_tokenizer_and_model)
|
116 |
#base_model = "TheBloke/airoboros-13B-HF" #load_8bit = False (in load_tokenizer_and_model)
|
117 |
-
|
|
|
118 |
#base_model = "TheBloke/airoboros-13B-HF" #load_8bit = True
|
119 |
#base_model = "TheBloke/vicuna-13B-1.1-HF" #load_8bit = ?
|
120 |
#base_model="gpt2-xl"
|
@@ -125,7 +126,7 @@ base_model = "project-baize/baize-v2-7b" #load_8bit = True (in load_tokenizer_a
|
|
125 |
#Tokenizer und Model laden
|
126 |
tokenizer,model,device = load_tokenizer_and_model(base_model, True)
|
127 |
#tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
|
128 |
-
|
129 |
#für Baize.... da spezieller Tokenizer geladen werden muss...
|
130 |
# hier werden aber Chat-Daten geladen!!!!
|
131 |
tokenizer,model,device = load_tokenizer_and_model_Baize(base_model, True)
|
@@ -141,7 +142,7 @@ config.save_pretrained(OUTPUT_DIR)
|
|
141 |
model = get_peft_model(model, config)
|
142 |
#da schneller Tokenizer-> Attention Mask setzen
|
143 |
tokenizer.pad_token_id = 0
|
144 |
-
|
145 |
|
146 |
|
147 |
####################################################
|
@@ -198,7 +199,7 @@ print ("training args")
|
|
198 |
#Training Args
|
199 |
batch_size = 2
|
200 |
|
201 |
-
|
202 |
# ########################################
|
203 |
#Training Argumente setzen (kleinere LLMs)
|
204 |
training_args = TrainingArguments(
|
@@ -241,7 +242,7 @@ trainer = Trainer(
|
|
241 |
#tokenizer=tokenizer,
|
242 |
compute_metrics=compute_metrics,
|
243 |
)
|
244 |
-
|
245 |
|
246 |
###############################################
|
247 |
# Special QA Trainer...#
|
@@ -259,7 +260,7 @@ trainer = QuestionAnsweringTrainer(
|
|
259 |
)
|
260 |
'''
|
261 |
#################################################
|
262 |
-
|
263 |
#################################################
|
264 |
# special Trainer Baize Model
|
265 |
# Parameters für Model 7b: 7b 32 0.0002
|
@@ -302,7 +303,7 @@ trainer = transformers.Trainer(
|
|
302 |
data_collator=transformers.DataCollatorForLanguageModeling(tokenizer, mlm=False),
|
303 |
)
|
304 |
model.config.use_cache = False
|
305 |
-
|
306 |
|
307 |
|
308 |
|
|
|
112 |
#Modelle und Tokenizer
|
113 |
|
114 |
#Alternativ mit beliebigen Modellen:
|
115 |
+
#base_model = "project-baize/baize-v2-7b" #load_8bit = True (in load_tokenizer_and_model)
|
116 |
#base_model = "TheBloke/airoboros-13B-HF" #load_8bit = False (in load_tokenizer_and_model)
|
117 |
+
|
118 |
+
base_model = "EleutherAI/gpt-neo-1.3B" #load_8bit = False (in load_tokenizer_and_model)
|
119 |
#base_model = "TheBloke/airoboros-13B-HF" #load_8bit = True
|
120 |
#base_model = "TheBloke/vicuna-13B-1.1-HF" #load_8bit = ?
|
121 |
#base_model="gpt2-xl"
|
|
|
126 |
#Tokenizer und Model laden
|
127 |
tokenizer,model,device = load_tokenizer_and_model(base_model, True)
|
128 |
#tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
|
129 |
+
'''
|
130 |
#für Baize.... da spezieller Tokenizer geladen werden muss...
|
131 |
# hier werden aber Chat-Daten geladen!!!!
|
132 |
tokenizer,model,device = load_tokenizer_and_model_Baize(base_model, True)
|
|
|
142 |
model = get_peft_model(model, config)
|
143 |
#da schneller Tokenizer-> Attention Mask setzen
|
144 |
tokenizer.pad_token_id = 0
|
145 |
+
'''
|
146 |
|
147 |
|
148 |
####################################################
|
|
|
199 |
#Training Args
|
200 |
batch_size = 2
|
201 |
|
202 |
+
|
203 |
# ########################################
|
204 |
#Training Argumente setzen (kleinere LLMs)
|
205 |
training_args = TrainingArguments(
|
|
|
242 |
#tokenizer=tokenizer,
|
243 |
compute_metrics=compute_metrics,
|
244 |
)
|
245 |
+
|
246 |
|
247 |
###############################################
|
248 |
# Special QA Trainer...#
|
|
|
260 |
)
|
261 |
'''
|
262 |
#################################################
|
263 |
+
'''
|
264 |
#################################################
|
265 |
# special Trainer Baize Model
|
266 |
# Parameters für Model 7b: 7b 32 0.0002
|
|
|
303 |
data_collator=transformers.DataCollatorForLanguageModeling(tokenizer, mlm=False),
|
304 |
)
|
305 |
model.config.use_cache = False
|
306 |
+
'''
|
307 |
|
308 |
|
309 |
|