import os import random import requests from huggingface_hub import InferenceClient import gradio as gr def get_random_api_key(): keys = os.getenv("KEYS", "").split(",") if keys and keys[0]: return random.choice(keys).strip() else: raise ValueError("API keys not found. Please set the KEYS environment variable.") css_url = "https://neurixyufi-aihub.static.hf.space/style.css" try: response = requests.get(css_url) response.raise_for_status() css = response.text + " h1{text-align:center}" except requests.exceptions.RequestException as e: print(f"Ошибка загрузки CSS: {e}") css = " h1{text-align:center}" def generate_story(prompt, style): try: client = InferenceClient(api_key=get_random_api_key()) messages = [ {"role": "system", "content": f"Напиши историю в стиле {style}."}, {"role": "user", "content": prompt} ] completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=1000) story = completion.choices[0].message.content return story except Exception as e: return f"Ошибка генерации: {e}" def edit_story(original_story, edited_prompt): try: client = InferenceClient(api_key=get_random_api_key()) messages = [ {"role": "system", "content": "Отредактируй историю, учитывая предоставленные указания."}, {"role": "user", "content": edited_prompt}, {"role": "assistant", "content": original_story} ] completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=1000) edited_story = completion.choices[0].message.content return edited_story except Exception as e: return f"Ошибка редактирования: {e}" def next_story_func(original_story, next_prompt): try: client = InferenceClient(api_key=get_random_api_key()) messages = [ {"role": "system", "content": "Продли историю, учитывая предоставленные указания. Продливай В ТОЧНОСТИ С КОНЦА, прям с того же символа, слова, предложения. (В начале добавляй новые строки если надо для отступа)"}, {"role": "user", "content": next_prompt}, {"role": "assistant", "content": original_story} ] completion = client.chat.completions.create(model="Qwen/Qwen2.5-Coder-32B-Instruct", messages=messages, temperature=0.7, max_tokens=1000) next_story = completion.choices[0].message.content return next_story except Exception as e: return f"Ошибка продления: {e}" def edone_story(edited_story): return edited_story def ndone_story(original_story, next_story_output): return original_story + next_story_output with gr.Blocks(css=css) as demo: with gr.Row(): with gr.Column(): with gr.Row(): style_choices = ["Приключенческая", "Научно-фантастическая", "Романтическая", "Комедийная", "Трагическая", "Введите свой стиль:"] style = gr.Dropdown(choices=style_choices, label="Выберите стиль истории", value="Приключенческая") with gr.Row(): prompt = gr.Textbox(label="Введите запрос для истории", placeholder="Например: История о путешествии в космос", lines=5) with gr.Row(): generate_button = gr.Button("Сгенерировать историю", variant='primary') with gr.Row(): output_story = gr.Textbox(label="История", lines=10) with gr.Column(): with gr.Accordion("Действия", open=True): with gr.Tab("Редактирование"): edited_prompt = gr.Textbox(label="Введите изменения для истории", placeholder="Например: Сделай историю более захватывающей", lines=5) edit_button = gr.Button("Отредактировать", variant='primary') edited_story = gr.Textbox(label="Отредактированная история", lines=10) edone_button = gr.Button("Принять") with gr.Tab("Продление"): next_prompt = gr.Textbox(label="Введите изменения для продления истории (Необязательно)", placeholder="Продолжи, но чтобы было...", lines=5) next_button = gr.Button("Продлить", variant='primary') next_story_output = gr.Textbox(label="Продолжение истории", lines=10) ndone_button = gr.Button("Принять") generate_button.click(generate_story, inputs=[prompt, style], outputs=[output_story], concurrency_limit=250) edit_button.click(edit_story, inputs=[output_story, edited_prompt], outputs=[edited_story], concurrency_limit=250) next_button.click(next_story_func, inputs=[output_story, next_prompt], outputs=[next_story_output], concurrency_limit=250) edone_button.click(edone_story, inputs=[edited_story], outputs=[output_story], concurrency_limit=550) ndone_button.click(ndone_story, inputs=[output_story, next_story_output], outputs=[output_story], concurrency_limit=550) demo.launch(show_api=False, share=False)