ANTIWOKE 1B ROLEPLAY

Este es un modelo sin censura simple, no cuenta con datasets extras mas que este que acabo de inyectar. El dataset se trata de una fusión de alta calidad de diferentes conjuntos de datos de escritura y juego de roles de HuggingFace. Esta versión cuenta con una longitud de secuencia de 8K (tokenizador Llama 3). Asegura que los entrenadores como Axolotl no descarten las muestras. Realizado con el script de https://huggingface.co/xzuyn

Lea la tarjeta del conjunto de datos para obtener más información: https://huggingface.co/datasets/Dampfinchen/Creative_Writing_Multiturn -> Si puede entrenar con una longitud de secuencia de entrada de 16K o más, definitivamente úsela en su lugar.

Tenga en cuenta que este material puede contener todo tipo de datos explícitos problemáticos. No me hago responsable de ello ni lo apruebo. Descargue el material únicamente si conoce la situación legal de los contenidos ficticios escritos de cualquier tipo en su país.

Downloads last month
145
GGUF
Model size
1.24B params
Architecture
llama
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and HF Inference API was unable to determine this model's library.

Dataset used to train Novaciano/ANTIWOKE-1B_ROLEPLAY-GGUF