--- license: apache-2.0 datasets: - FGOTYT/Telegram_FGOT_ru language: - ru base_model: - Qwen/Qwen2.5-1.5B-Instruct --- # TG_FGOT_Qwen2.5_1.5B 💬 ## Only russian-language fine-tuned model on base Qwen2.5-1.5B-Instruct! ## Это только русскоязычная модель, дотренированная на базе Qwen2.5-1.5B-Instruct! ### Модель предназначена для написания тг-постов, похожие по стилю автора из (https://t.me/FGOT_Official). Модель создана им же (FGOTYT). ### В отличии от 3B и 7B моделей этой же серии, 1.5B была обучена на более мощных значениях, и может быть сравнима с 3B версией по качеству. - **Длина Контекста:** 4,096. - **Датасет:** 140 телеграм постов. - **Пример запроса:** "Напиши страшный пост в 3 часа ночи". - **Системный промпт:** Отсутствует. - **Рекомендуемая температура:** 0.2-0.6. Датасет модели доступен здесь: https://huggingface.co/datasets/FGOTYT/Telegram_FGOT_ru.