import gradio as gr from huggingface_hub import InferenceClient import requests import json import os import random def get_random_api_key(): keys = os.getenv("KEYS", "").split(",") if keys and keys[0]: # Check if KEYS is set and not empty return random.choice(keys).strip() else: raise ValueError("API keys not found. Please set the KEYS environment variable.") def respond( message, history: list[tuple[str, str]], max_tokens, temperature, top_p, ): if not message: return history, "" system_role = """Ты ии чат для создания изображений! **!Отвечай Markdown разметкой!** Жирный, список и тд всё html разметкой Не пиши "пример запроса", "как делать запрос" и тп. Я программа, а обычному пользователю не нужны подробности как да что за api. У него просто начинается генерация и всё, ему не нужно знать как устроены запросы Чтобы создать изображение, напиши ссылку изображения в теге "SimpleAiImageGen", вставив промпт (обязательно на английском), ширину, высоту, сид и другие переменные. (по умолчанию указывай: nologo=true это чтобы не было водяного знака нейросети, nofeed чтобы изображение было приватным) Можно не указывать модель (рекомендуется, автоматически выберется), но можно указать &model= одну из доступных: Flux,Flux-Pro,Flux-Realism,Flux-Anime,Flux-3D,Flux-CablyAl,Turbo Чтобы ИЗМЕНИТЬ изображение, можно чуть чуть поменять промпт или добавить к нему, сохраняя тот же сид! Чтобы получить другое изображение с тем же промптом, напиши рандомный сид. !За раз ты можешь создать МАКСИМУМ 6 изображений, но поумолчанию 1 делай! (Больше не пиши!) Примеры (писать нужно так, в особенном теге): ![Краткий заголовок](https://image.pollinations.ai/prompt/logo%20with%20text%20pollinations?width=1024&height=512&seed=4&nologo=true&nofeed=true) ![Краткий заголовок](https://image.pollinations.ai/prompt/logo%20with%20text%20YUFI?width=1024&height=512&seed=4&nologo=true&nofeed=true) У пользователя начнётся генерация. Активно ведёшь чат с пользователем, помимо генераций изображений Подробные промпты (2-3 предложения на английском), ты умеешь ТОЛЬКО создавать изображения и помогать в обучении промптингу, больше НЕ ЧЕГО! Есть ещё один api (с ним тоже можешь генерировать. Но он рисует дольше, может генерироваться до 2 минут, рисуй этим только если попросят например нарисовать определённой моделью и скинут название (типо: strangerzonehf/Flux-Animex-v2-LoRA, но смотри чтобы было так, а не не правильно, иначе скажи что это не правильно)): "https://yufi-api-serverimgsgens.hf.space/prompt/": У него запрос такой же, но модели (название модели для пользователя, показывай пользователю только его (ключевое слово которое должно быть в начале промпта): как указывать в запросе): Flux-logo (при использовании указывай ключевое слово "logo"): Shakker-Labs/FLUX.1-dev-LoRA-Logo-Design Schnell: black-forest-labs/FLUX.1-schnell Midjourney (ключ. слово: "midjourney mix"): strangerzonehf/Flux-Midjourney-Mix-LoRA Animex (ключ. слово: "animex"): strangerzonehf/Flux-Animex-v2-LoRA In Context: ali-vilab/In-Context-LoRA Aura (ключ. слово: "aura 9999"): prithivMLmods/Aura-9999 PixelArt: nerijs/pixel-art-xl PencilArt (ключ. слово: "Simple Pencil"): prithivMLmods/Super-Pencil-Flux-LoRA WallpaperArt: prithivMLmods/Canopus-Liquid-Wallpaper-Art ![Краткий заголовок](https://yufi-api-serverimgsgens.hf.space/prompt/Animex.%20logo%20with%20text%20YUFI?width=1024&height=512&seed=325346?model=strangerzonehf/Flux-Animex-v2-LoRA) """ # Формируем сообщения для отправки в API messages = [{"role": "system", "content": system_role}] for val in history: if val[0]: user_message = val[0] messages.append({"role": "user", "content": user_message}) if val[1]: assistant_message = val[1] messages.append({"role": "assistant", "content": assistant_message}) messages.append({"role": "user", "content": message}) # Получаем рандомный API ключ api_key = get_random_api_key() client = InferenceClient(api_key=api_key) # Генерируем ответ от чат-бота response = client.chat.completions.create( model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, max_tokens=max_tokens, temperature=temperature, top_p=top_p ) # Переводим ответ ассистента на русский, если он не на русском response_text = response.choices[0].message.content # Обновляем историю сообщений history.append((message, response_text)) return history, "" # Ссылка на файл CSS css_url = "https://neurixyufi-aihub.static.hf.space/style.css" default = """ .gradio-container{max-width: 700px !important} h1{text-align:center} #component-4 { height: 70vh !important; } .bot p img { min-height: 200px; background: url(https://huggingface.co/spaces/NeurixYUFI/ImgGenChat/resolve/main/placeholder.png); background-size: cover; background-position: center; width: auto; } .message-wrap.svelte-vxn3uw .message-row .md img { width: 100% !important; max-width: none !important; max-height: none !important; }""" # Получение CSS по ссылке try: response = requests.get(css_url) response.raise_for_status() # Поднимаем исключение, если статус ответа не 200 css = response.text + default except requests.exceptions.RequestException as e: print(f"Ошибка при загрузке CSS: {e}") css = default # Используем базовый стиль, если загрузка CSS не удалась # Создаем интерфейс с использованием gr.Blocks with gr.Blocks(css=css) as demo: gr.Markdown("# Чат художник") with gr.Row(): with gr.Column(): chatbot = gr.Chatbot(show_label=False, show_share_button=False) message = gr.Textbox(label="Введите ваше сообщение", placeholder="Введите ваше сообщение здесь...", lines=3, container=False) submit = gr.Button("Отправить", variant='primary') with gr.Accordion("Настройки чата", open=False): max_tokens = gr.Slider(minimum=100, maximum=3000, value=2000, step=1, label="Максимальное количество новых токенов") temperature = gr.Slider(minimum=0.0, maximum=1.0, value=0.7, step=0.1, label="Температура") top_p = gr.Slider(minimum=0.0, maximum=1.0, value=0.95, step=0.05, label="Top-p (нуклеарное сэмплирование)") # Обработка отправки сообщения submit.click( fn=respond, inputs=[message, chatbot, max_tokens, temperature, top_p], outputs=[chatbot, message], concurrency_limit=250 ) # Обработка отправки сообщения при нажатии Ctrl+Enter message.submit( fn=respond, inputs=[message, chatbot, max_tokens, temperature, top_p], outputs=[chatbot, message], concurrency_limit=250 ) # Запускаем интерфейс if __name__ == "__main__": demo.queue(max_size=250).launch(show_api=False, share=False)