---
license: other
license_name: fair-ai-public-license-1.0-sd
license_link: https://freedevproject.org/faipl-1.0-sd/
language:
- en
base_model:
- Laxhar/noobai-XL_v1.0
pipeline_tag: text-to-image
tags:
- safetensors
- diffusers
- stable-diffusion
- stable-diffusion-xl
- art
- not-for-all-audiences
library_name: diffusers
---
NoobAI XL V预测 0.5
# 模型介绍
本图像生成模型基于 [Laxhar/noobai-XL_v1.0](https://huggingface.co/Laxhar/noobai-XL-1.0)。模型使用了完整的 Danbooru 和 e621 数据集训练,同时支持原生标签和自然语言描述。
本模型是一个 v-prediction 模型(与 eps-prediction 不同),需要特定的参数配置,详细信息请参考下面的章节。
特别感谢我的队友 [Euge](https://huggingface.co/Eugeoter) 的编码工作,同时感谢社区中许多乐于助人的成员提供的技术支持。
# ⚠️ 重要提示 ⚠️
## **该模型与一般的(噪声预测)模型具有不同的工作方式**
## **请仔细阅读使用指南!**
## 模型细节
- **开发者**: [Laxhar Lab](https://huggingface.co/Laxhar)
- **模型类型**: Diffusion-based text-to-image generative model
- **基础模型**: [Laxhar/noobai-XL_v1.0](https://huggingface.co/Laxhar/noobai-XL-1.0)
- **算力赞助**: [Lanyun Cloud](https://cloud.lanyun.net)
---
# 如何使用该模型?
## 方法一: [reForge](https://github.com/Panchovix/stable-diffusion-webui-reForge/tree/dev_upstream)
1. (如果您尚未安装 reForge) 请按照存储库中的说明安装 reForge;
2. 启动 reForge UI 并像往常一样使用模型!
## 方法二: [ComfyUI](https://github.com/comfyanonymous/ComfyUI)
示例工作流:
[comfy_ui_workflow_sample](/Laxhar/noobai-XL-Vpred-0.5/blob/main/comfy_ui_workflow_sample.png)
## 方法三: [WebUI](https://github.com/AUTOMATIC1111/stable-diffusion-webui)
**注意**:该方法可能会产生 BUG,因此请谨慎使用。
**注意**: 请确保您的机器上已安装 Git 并正确配置环境。
1. (如果您尚未安装 WebUI) 请按照存储库中的说明安装 WebUI;
2. 使用控制台切换至 `dev` 分支:
```bash
git checkout dev
```
3. 拉取最新更新:
```bash
git pull
```
4. 启动 WebUI 并像往常一样使用模型!
## 方法四: [Diffusers](https://huggingface.co/docs/diffusers/en/index)
```python
import torch
from diffusers import StableDiffusionXLPipeline
from diffusers import EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality,artist:john_kafka,artist:nixeu,artist:quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
```
---
# 推荐生图参数
- CFG Scale: 4 ~ 5
- 采样步数: 28 ~ 35
- 采样器: **Euler** (⚠️ 其他采样器可能会导致过饱和等问题)
- 分辨率:总面积围绕 1024x1024. 最好从下面几个分辨率中选:768x1344, **832x1216**, 896x1152, 1024x1024, 1152x896, 1216x832, 1344x768