--- license: cc-by-nc-sa-4.0 language: - ru library_name: transformers tags: - chat - porn - sex - erotic - roleplay widget: - text: "Офигеть" - text: "Ой, что это" - text: "Ну ка" - text: "Ай" - text: "Нафиг" - text: "В душ" - text: "Тентакли" - text: "В бинокль" pipeline_tag: text-generation --- Medium модель для эротического ролеплея. Имеет тенденцию превосходить large модель :) Неплохо держит контекст, близка к large модели, параметры для старта: do_sample: true
top_p: 0.9
top_k: 20
temperature: 0.7 # При высоких значениях также работает неплохо
repetition_penalty: 1.15
encoder_repetition_penalty: 1.0-1.15
typical_p: 1.0
Оптимизированный фронтенд для данных моделей в режиме чата под Android - https://github.com/zlsl/pocketai Для чата желательно количество новых токенов > 350, тогда диалоги будут интереснее. Очень хорошие результаты при следующем вводе: 1 строка - ваша реплика, 2 строка - ваши действия. Можно в контексте и во время диалога указывать действия и мысли в скобках. Например: Привет (вхожу в комнату, закрываю дверь) Важно! В модели добавлен токен ``, он указывает начало строки диалога, прямой речи: >Абзац ... контекста
>Я: `` (мысли, действия и прочее) Реплика персонажа (еще мысли, контекст)
>Собеседник: `` (мысли, действия и прочее) Реплика персонажа (еще мысли, контекст)
Также хорошие результаты в другом формате диалогов: >Абзац ... контекста
>Я: `` (мысли, действия и прочее) Реплика персонажа (еще мысли, контекст)
>Еще действия, описание окружения.
>Собеседник: `` (мысли, действия и прочее) Реплика персонажа (еще мысли, контекст)
>Еще действия, описание окружения.
Новый токен желательно использовать, но не обязательно. Также указывать имена персонажей - опционально. Модель с удовольствием может "в мультичар", количество собеседников может быть более двух. ## Для пользователей text-generation-webui В инструменте поломана работа с GPT-2, GPTJ, GPT-NEO и аналогичными модлями, неверно загружается токенизер. Ошибка такая:
>eos_token_id = eos_token_id[0] >IndexError: list index out of range Исправляется легко, в файл modules/models.py в функцию load_tokenizer() надо добавить строчку
tokenizer.eos_token_id = 2
перед
return tokenizer