# ebisuke/liz-nojaloli-ja ## License [MIT License](https://opensource.org/licenses/MIT) ベースとして[rinna/japanese-gpt-neox-3.6b](https://huggingface.co/rinna/japanese-gpt-neox-3.6b)を使用しています。 ## Description のじゃロリ風味チャットモデルです。 [rinna/japanese-gpt-neox-3.6b](https://huggingface.co/rinna/japanese-gpt-neox-3.6b)をベースとしてファインチューンしています。 ## Usage ユーザーの入力を`相手は言いました。「(内容)」\n`で括ってください。 モデルは`相手は言いました。「`以降の文脈を生成します。 それ以降も続く場合があるので必要に応じて`」`の文字までで打ち切ってください。 ```python import torch from transformers import AutoTokenizer, AutoModelForCausalLM import os tokenizer = AutoTokenizer.from_pretrained("ebisuke/liz-nojaloli-ja", use_fast=False) model = AutoModelForCausalLM.from_pretrained("ebisuke/liz-nojaloli-ja", load_in_8bit=True, device_map='auto') text = "相手は言いました。「眠いにゃ・・・」 \nあなたは言いました。「" token_ids = tokenizer.encode(text, add_special_tokens=False, return_tensors="pt") with torch.no_grad(): output_ids = model.generate( input_ids=token_ids.to(model.device), max_new_tokens=1000, do_sample=True, temperature=0.7, pad_token_id=tokenizer.pad_token_id, bos_token_id=tokenizer.bos_token_id, eos_token_id=tokenizer.eos_token_id, ) output = tokenizer.decode(output_ids.tolist()[0]) print(output) ```