Commit
·
339bed5
1
Parent(s):
5711a3e
Update app.py
Browse files
app.py
CHANGED
@@ -63,19 +63,19 @@ toxiciyTokenizer = AutoTokenizer.from_pretrained(toxicitymodel_id)
|
|
63 |
intro = """
|
64 |
## O que é `Aira`?
|
65 |
|
66 |
-
[`Aira`](https://huggingface.co/nicholasKluge/Aira-Instruct-PT-124M) é
|
67 |
-
|
68 |
-
Desenvolvemos os nossos chatbots de conversação de domínio aberto através da geração de texto condicional/ajuste fino por instruções. Esta abordagem tem muitas limitações. Apesar de podermos criar um chatbot capaz de responder a perguntas sobre qualquer assunto, é difícil forçar o modelo a produzir respostas de boa qualidade. E por boa, queremos dizer texto **factual** e **não tóxico**. Isto leva-nos a dois dos problemas mais comuns quando lidando com modelos generativos utilizados em aplicações de conversação:
|
69 |
|
70 |
## Limitações
|
71 |
|
|
|
|
|
72 |
🤥 Modelos generativos podem perpetuar a geração de conteúdo pseudo-informativo, ou seja, informações falsas que podem parecer verdadeiras.
|
73 |
|
74 |
🤬 Em certos tipos de tarefas, modelos generativos podem produzir conteúdo prejudicial e discriminatório inspirado em estereótipos históricos.
|
75 |
|
76 |
## Uso Intendido
|
77 |
|
78 |
-
`Aira` destina-se apenas à investigação
|
79 |
|
80 |
## Como essa demo funciona?
|
81 |
|
|
|
63 |
intro = """
|
64 |
## O que é `Aira`?
|
65 |
|
66 |
+
[`Aira`](https://huggingface.co/nicholasKluge/Aira-Instruct-PT-124M) é uma série de chatbots de domínio aberto (português e inglês) obtidos por meio de `instruction-tuning` e `RLHF`. A série Aira-Instruct foi desenvolvida para ajudar os pesquisadores a explorar os desafios relacionados ao problema de alinhamento.
|
|
|
|
|
67 |
|
68 |
## Limitações
|
69 |
|
70 |
+
Desenvolvemos os nossos chatbots de conversação de domínio aberto através da geração de texto condicional/ajuste fino por instruções. Esta abordagem tem muitas limitações. Apesar de podermos criar um chatbot capaz de responder a perguntas sobre qualquer assunto, é difícil forçar o modelo a produzir respostas de boa qualidade. E por boa, queremos dizer texto **factual** e **não tóxico**. Isto leva-nos a dois dos problemas mais comuns quando lidando com modelos generativos utilizados em aplicações de conversação:
|
71 |
+
|
72 |
🤥 Modelos generativos podem perpetuar a geração de conteúdo pseudo-informativo, ou seja, informações falsas que podem parecer verdadeiras.
|
73 |
|
74 |
🤬 Em certos tipos de tarefas, modelos generativos podem produzir conteúdo prejudicial e discriminatório inspirado em estereótipos históricos.
|
75 |
|
76 |
## Uso Intendido
|
77 |
|
78 |
+
`Aira` destina-se apenas à investigação academica. Para mais informações, leia nossa [carta modelo](https://huggingface.co/nicholasKluge/Aira-Instruct-PT-124M) para ver como desenvolvemos `Aira`.
|
79 |
|
80 |
## Como essa demo funciona?
|
81 |
|