alexkueck commited on
Commit
764dfa4
·
1 Parent(s): a8dcedf

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -8
app.py CHANGED
@@ -112,9 +112,10 @@ login(token=os.environ["HF_ACCESS_TOKEN"]) #for read access!!!!
112
  #Modelle und Tokenizer
113
 
114
  #Alternativ mit beliebigen Modellen:
115
- base_model = "project-baize/baize-v2-7b" #load_8bit = True (in load_tokenizer_and_model)
116
  #base_model = "TheBloke/airoboros-13B-HF" #load_8bit = False (in load_tokenizer_and_model)
117
- #base_model = "EleutherAI/gpt-neo-1.3B" #load_8bit = False (in load_tokenizer_and_model)
 
118
  #base_model = "TheBloke/airoboros-13B-HF" #load_8bit = True
119
  #base_model = "TheBloke/vicuna-13B-1.1-HF" #load_8bit = ?
120
  #base_model="gpt2-xl"
@@ -125,7 +126,7 @@ base_model = "project-baize/baize-v2-7b" #load_8bit = True (in load_tokenizer_a
125
  #Tokenizer und Model laden
126
  tokenizer,model,device = load_tokenizer_and_model(base_model, True)
127
  #tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
128
-
129
  #für Baize.... da spezieller Tokenizer geladen werden muss...
130
  # hier werden aber Chat-Daten geladen!!!!
131
  tokenizer,model,device = load_tokenizer_and_model_Baize(base_model, True)
@@ -141,7 +142,7 @@ config.save_pretrained(OUTPUT_DIR)
141
  model = get_peft_model(model, config)
142
  #da schneller Tokenizer-> Attention Mask setzen
143
  tokenizer.pad_token_id = 0
144
-
145
 
146
 
147
  ####################################################
@@ -198,7 +199,7 @@ print ("training args")
198
  #Training Args
199
  batch_size = 2
200
 
201
- '''
202
  # ########################################
203
  #Training Argumente setzen (kleinere LLMs)
204
  training_args = TrainingArguments(
@@ -241,7 +242,7 @@ trainer = Trainer(
241
  #tokenizer=tokenizer,
242
  compute_metrics=compute_metrics,
243
  )
244
- '''
245
 
246
  ###############################################
247
  # Special QA Trainer...#
@@ -259,7 +260,7 @@ trainer = QuestionAnsweringTrainer(
259
  )
260
  '''
261
  #################################################
262
-
263
  #################################################
264
  # special Trainer Baize Model
265
  # Parameters für Model 7b: 7b 32 0.0002
@@ -302,7 +303,7 @@ trainer = transformers.Trainer(
302
  data_collator=transformers.DataCollatorForLanguageModeling(tokenizer, mlm=False),
303
  )
304
  model.config.use_cache = False
305
-
306
 
307
 
308
 
 
112
  #Modelle und Tokenizer
113
 
114
  #Alternativ mit beliebigen Modellen:
115
+ #base_model = "project-baize/baize-v2-7b" #load_8bit = True (in load_tokenizer_and_model)
116
  #base_model = "TheBloke/airoboros-13B-HF" #load_8bit = False (in load_tokenizer_and_model)
117
+
118
+ base_model = "EleutherAI/gpt-neo-1.3B" #load_8bit = False (in load_tokenizer_and_model)
119
  #base_model = "TheBloke/airoboros-13B-HF" #load_8bit = True
120
  #base_model = "TheBloke/vicuna-13B-1.1-HF" #load_8bit = ?
121
  #base_model="gpt2-xl"
 
126
  #Tokenizer und Model laden
127
  tokenizer,model,device = load_tokenizer_and_model(base_model, True)
128
  #tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
129
+ '''
130
  #für Baize.... da spezieller Tokenizer geladen werden muss...
131
  # hier werden aber Chat-Daten geladen!!!!
132
  tokenizer,model,device = load_tokenizer_and_model_Baize(base_model, True)
 
142
  model = get_peft_model(model, config)
143
  #da schneller Tokenizer-> Attention Mask setzen
144
  tokenizer.pad_token_id = 0
145
+ '''
146
 
147
 
148
  ####################################################
 
199
  #Training Args
200
  batch_size = 2
201
 
202
+
203
  # ########################################
204
  #Training Argumente setzen (kleinere LLMs)
205
  training_args = TrainingArguments(
 
242
  #tokenizer=tokenizer,
243
  compute_metrics=compute_metrics,
244
  )
245
+
246
 
247
  ###############################################
248
  # Special QA Trainer...#
 
260
  )
261
  '''
262
  #################################################
263
+ '''
264
  #################################################
265
  # special Trainer Baize Model
266
  # Parameters für Model 7b: 7b 32 0.0002
 
303
  data_collator=transformers.DataCollatorForLanguageModeling(tokenizer, mlm=False),
304
  )
305
  model.config.use_cache = False
306
+ '''
307
 
308
 
309