Spaces:
Paused
Paused
File size: 1,328 Bytes
b0e1baf 147d96b b0e1baf |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 |
from telegram import Update
from telegram.ext import Updater, CommandHandler, CallbackContext, MessageHandler, Filters
import requests
from telegram import ChatAction
import os
def hello(update: Update, context: CallbackContext) -> None:
update.message.reply_text(f'{update.effective_user.first_name}, você está diante de um ser superior, comporte-se bostinha, como sou um ser superior vou te dar uma ajuda com uma centelha da minha genealidade. Escreva uma palavra ou frase em inglês (porque minha serva programadora é porca e preguiçosa demais pra fazer em portugues) e eu vou gerar uma obra prima a partir do seu lixo.')
def get_gpt_response(text):
r = requests.post(
url="https://hf.space/embed/pink-mothra/wired-ia/+/api/predict/",
json={"data": [text]},
)
response = r.json()
return response["data"][0]
def respond_to_user(update: Update, context: CallbackContext):
update.message.chat.send_action(action=ChatAction.TYPING)
response_text = get_gpt_response(update.message.text)
update.message.reply_text(response_text)
updater = Updater(os.environ['telegram_token'])
updater.dispatcher.add_handler(CommandHandler("start", hello))
updater.dispatcher.add_handler(MessageHandler(Filters.text & ~Filters.command, respond_to_user))
updater.start_polling()
updater.idle() |