--- language: - zh library_name: transformers pipeline_tag: text2text-generation --- ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("svjack/bloom-daliy-dialogue") model = AutoModelForCausalLM.from_pretrained("svjack/bloom-daliy-dialogue") tokenizer.decode( model.generate( tokenizer.encode( "你饿吗?", return_tensors="pt", add_special_tokens=True ), max_length = 128)[0], skip_special_tokens = True ).split("\n-----\n") ''' ['你饿吗?', '我饿了', '你想吃点什么吗?', '我可能也饿了', '你想吃块蛋糕吗?', '这听起来不错', '你要什么蛋糕?', '我也不知道啊 第一次来这里', '让我看看... 这是什么蛋糕?', '是软软糖圣菲利斯蛋糕。', '你吃了多少?', '我大概应该吃一小百二十块。', '你通常吃哪种蛋糕?', '我通常只吃一点。', '你知道,我不喜欢吃软糖圣菲利斯蛋糕。', '你有什么特别喜欢'] ''' ```