sentence2
stringlengths
11
342
sentence1
stringlengths
11
342
idx
int64
0
1.1k
label
int64
0
1
Em seguida, eles usam um modelo generativo para classificar novamente o resultado da tradução usando recursos adicionais de nível não-mundial.
Em seguida, eles usam um modelo discriminativo para classificar o resultado da tradução usando recursos adicionais de nível não-mundial.
900
1
Em seguida, eles usam um modelo discriminativo para classificar o resultado da tradução usando recursos adicionais de nível não-mundial.
Em seguida, eles usam um modelo generativo para classificar novamente o resultado da tradução usando recursos adicionais de nível não-mundial.
901
1
Diferentemente das tarefas de MT padrão, estamos lidando com um cenário de recursos relativamente baixos, em que a escassez do vocabulário de destino é um problema.
Em contraste com as tarefas de MT padrão, estamos lidando com um cenário de recursos relativamente baixos, em que a escassez do vocabulário de destino é um problema.
902
0
Em contraste com as tarefas de MT padrão, estamos lidando com um cenário de recursos relativamente baixos, em que a escassez do vocabulário de destino é um problema.
Diferentemente das tarefas de MT padrão, estamos lidando com um cenário de recursos relativamente baixos, em que a escassez do vocabulário de destino é um problema.
903
0
Os logits são então calculados para essas ações e ações específicas são escolhidas de acordo com um softmax sobre esses logits durante o treinamento e a decodificação.
Uma distribuição é então calculada sobre essas ações usando uma função softmax e ações específicas são escolhidas de acordo durante o treinamento e a decodificação.
904
0
Uma distribuição é então calculada sobre essas ações usando uma função softmax e ações específicas são escolhidas de acordo durante o treinamento e a decodificação.
Os logits são então calculados para essas ações e ações específicas são escolhidas de acordo com um softmax sobre esses logits durante o treinamento e a decodificação.
905
0
Uma distribuição é então calculada sobre essas ações usando uma abordagem de entropia máxima e ações específicas são escolhidas de acordo com o treinamento e a decodificação.
Uma distribuição é então calculada sobre essas ações usando uma função softmax e ações específicas são escolhidas de acordo durante o treinamento e a decodificação.
906
0
Uma distribuição é então calculada sobre essas ações usando uma função softmax e ações específicas são escolhidas de acordo durante o treinamento e a decodificação.
Uma distribuição é então calculada sobre essas ações usando uma abordagem de entropia máxima e ações específicas são escolhidas de acordo com o treinamento e a decodificação.
907
1
Uma distribuição é então calculada sobre essas ações usando uma função softmax e ações específicas são escolhidas aleatoriamente durante o treinamento e a decodificação.
Uma distribuição é então calculada sobre essas ações usando uma função softmax e ações específicas são escolhidas de acordo durante o treinamento e a decodificação.
908
1
Uma distribuição é então calculada sobre essas ações usando uma função softmax e ações específicas são escolhidas de acordo durante o treinamento e a decodificação.
Uma distribuição é então calculada sobre essas ações usando uma função softmax e ações específicas são escolhidas aleatoriamente durante o treinamento e a decodificação.
909
1
Os sistemas produzidos dessa forma suportam a capacidade de interromper um interlocutor no meio de uma frase.
Os sistemas produzidos dessa forma são incrementais: os diálogos são processados palavra por palavra, o que já havia sido demonstrado anteriormente como essencial para apoiar o diálogo natural e espontâneo.
910
0
Os sistemas produzidos dessa forma são incrementais: os diálogos são processados palavra por palavra, o que já havia sido demonstrado anteriormente como essencial para apoiar o diálogo natural e espontâneo.
Os sistemas assim produzidos suportam a capacidade de interromper um interlocutor no meio da frase.
911
1
Os sistemas produzidos dessa forma são incrementais: os diálogos são processados frase por frase, o que já havia sido demonstrado anteriormente como essencial para apoiar o diálogo natural e espontâneo.
Os sistemas produzidos dessa forma são incrementais: os diálogos são processados palavra por palavra, o que já havia sido demonstrado anteriormente como essencial para apoiar o diálogo natural e espontâneo.
912
1
Os sistemas produzidos dessa forma são incrementais: os diálogos são processados palavra por palavra, o que já havia sido demonstrado anteriormente como essencial para apoiar o diálogo natural e espontâneo.
Os sistemas produzidos dessa forma são incrementais: os diálogos são processados frase por frase, o que já havia sido demonstrado anteriormente como essencial para apoiar o diálogo natural e espontâneo.
913
1
De fato, costuma-se afirmar que, para que os seres humanos aprendam a ter um desempenho adequado em um domínio, basta um aprendizado único.
De fato, costuma-se afirmar que, para que os seres humanos aprendam a ter um desempenho adequado em um domínio, um exemplo é suficiente para aprender.
914
0
De fato, costuma-se afirmar que, para que os seres humanos aprendam a ter um desempenho adequado em um domínio, um exemplo é suficiente para aprender.
De fato, costuma-se afirmar que, para que os seres humanos aprendam a ter um desempenho adequado em um domínio, basta um aprendizado único.
915
0
De fato, costuma-se afirmar que, para que os seres humanos aprendam a ter um desempenho adequado em um domínio, qualquer número de exemplos é suficiente para aprender.
De fato, costuma-se afirmar que, para que os seres humanos aprendam a ter um desempenho adequado em um domínio, um exemplo é suficiente para aprender.
916
1
De fato, costuma-se afirmar que, para que os seres humanos aprendam a ter um desempenho adequado em um domínio, um exemplo é suficiente para aprender.
De fato, costuma-se afirmar que, para que os seres humanos aprendam a ter um desempenho adequado em um domínio, qualquer número de exemplos é suficiente para aprender.
917
1
Investigamos uma ampla gama de métricas, incluindo as mais modernas baseadas em palavras e as novas baseadas em gramática, e demonstramos que elas refletem apenas fracamente os julgamentos humanos dos resultados do sistema, conforme gerados pela geração de linguagem natural de ponta a ponta orientada por dados.
Investigamos uma ampla gama de métricas, incluindo as mais modernas baseadas em palavras e em novas gramáticas, e demonstramos que elas refletem apenas fracamente os julgamentos humanos dos resultados do sistema gerados por NLG de ponta a ponta orientada por dados.
918
0
Investigamos uma ampla gama de métricas, incluindo as mais modernas baseadas em palavras e em novas gramáticas, e demonstramos que elas refletem apenas fracamente os julgamentos humanos dos resultados do sistema gerados por NLG de ponta a ponta orientada por dados.
Investigamos uma ampla gama de métricas, incluindo as mais modernas baseadas em palavras e as novas baseadas em gramática, e demonstramos que elas refletem apenas fracamente os julgamentos humanos dos resultados do sistema, conforme gerados pela geração de linguagem natural de ponta a ponta orientada por dados.
919
0
Investigamos uma ampla gama de métricas, incluindo as mais modernas baseadas em palavras e em novas gramáticas, e demonstramos que elas refletem apenas fracamente os julgamentos humanos dos resultados do sistema, conforme gerados pela análise de linguagem natural de ponta a ponta orientada por dados.
Investigamos uma ampla gama de métricas, incluindo as mais modernas baseadas em palavras e em novas gramáticas, e demonstramos que elas refletem apenas fracamente os julgamentos humanos dos resultados do sistema gerados por NLG de ponta a ponta orientada por dados.
920
1
Investigamos uma ampla gama de métricas, incluindo as mais modernas baseadas em palavras e em novas gramáticas, e demonstramos que elas refletem apenas fracamente os julgamentos humanos dos resultados do sistema gerados por NLG de ponta a ponta orientada por dados.
Investigamos uma ampla gama de métricas, incluindo as mais modernas baseadas em palavras e em novas gramáticas, e demonstramos que elas refletem apenas fracamente os julgamentos humanos dos resultados do sistema, conforme gerados pela análise de linguagem natural de ponta a ponta orientada por dados.
921
1
Para avaliar a falta de confiabilidade das classificações, calculamos o coeficiente de correlação intraclasse (ICC), que mede a confiabilidade interobservador em dados ordinais para mais de dois avaliadores (Landis e Koch, 1977).
Para avaliar a confiabilidade das classificações, calculamos o coeficiente de correlação intraclasse (ICC), que mede a confiabilidade interobservador em dados ordinais para mais de dois avaliadores (Landis e Koch, 1977).
922
0
Para avaliar a confiabilidade das classificações, calculamos o coeficiente de correlação intraclasse (ICC), que mede a confiabilidade interobservador em dados ordinais para mais de dois avaliadores (Landis e Koch, 1977).
Para avaliar a falta de confiabilidade das classificações, calculamos o coeficiente de correlação intraclasse (ICC), que mede a confiabilidade interobservador em dados ordinais para mais de dois avaliadores (Landis e Koch, 1977).
923
0
Também mostramos que o desempenho da métrica varia entre conjuntos de dados e sistemas.
Também mostramos que o desempenho da métrica é específico dos dados e do sistema.
924
0
Também mostramos que o desempenho da métrica é específico dos dados e do sistema.
Também mostramos que o desempenho da métrica varia entre conjuntos de dados e sistemas.
925
0
Também mostramos que o desempenho da métrica é constante entre conjuntos de dados e sistemas.
Também mostramos que o desempenho da métrica é específico dos dados e do sistema.
926
1
Também mostramos que o desempenho da métrica é específico dos dados e do sistema.
Também mostramos que o desempenho da métrica é constante entre conjuntos de dados e sistemas.
927
1
Nossos experimentos indicam que os sistemas neurais são muito bons na modelagem de linguagem em nível superficial, mas têm um desempenho muito ruim na captura de semântica e estrutura de nível superior.
Nossos experimentos indicam que os sistemas neurais são muito bons na produção de resultados fluentes e, em geral, obtêm bons resultados nas métricas padrão de correspondência de palavras, mas têm um desempenho muito ruim na seleção de conteúdo e na captura da estrutura de longo prazo.
928
0
Nossos experimentos indicam que os sistemas neurais são muito bons na produção de resultados fluentes e, em geral, obtêm bons resultados nas métricas padrão de correspondência de palavras, mas têm um desempenho muito ruim na seleção de conteúdo e na captura da estrutura de longo prazo.
Nossos experimentos indicam que os sistemas neurais são muito bons na modelagem de linguagem em nível superficial, mas têm um desempenho muito ruim na captura de semântica e estrutura de nível superior.
929
0
Nossos experimentos indicam que os sistemas neurais são muito bons em capturar a semântica e a estrutura de nível superior, mas têm um desempenho muito ruim na modelagem de linguagem de nível superficial.
Nossos experimentos indicam que os sistemas neurais são muito bons na produção de resultados fluentes e, em geral, obtêm bons resultados nas métricas padrão de correspondência de palavras, mas têm um desempenho muito ruim na seleção de conteúdo e na captura da estrutura de longo prazo.
930
1
Nossos experimentos indicam que os sistemas neurais são muito bons na produção de resultados fluentes e, em geral, obtêm bons resultados nas métricas padrão de correspondência de palavras, mas têm um desempenho muito ruim na seleção de conteúdo e na captura da estrutura de longo prazo.
Nossos experimentos indicam que os sistemas neurais são muito bons para capturar a semântica e a estrutura de nível superior, mas têm um desempenho muito ruim na modelagem de linguagem de nível superficial.
931
1
As técnicas baseadas em reconstrução podem operar em várias escalas durante o treinamento.
As técnicas baseadas em reconstrução também podem ser aplicadas no nível do documento ou da frase durante o treinamento.
932
0
As técnicas baseadas em reconstrução também podem ser aplicadas no nível do documento ou da frase durante o treinamento.
As técnicas baseadas em reconstrução podem operar em várias escalas durante o treinamento.
933
0
As técnicas baseadas em reconstrução também podem ser aplicadas no nível do documento ou da frase durante o teste.
As técnicas baseadas em reconstrução também podem ser aplicadas no nível do documento ou da frase durante o treinamento.
934
1
As técnicas baseadas em reconstrução também podem ser aplicadas no nível do documento ou da frase durante o treinamento.
As técnicas baseadas em reconstrução também podem ser aplicadas no nível do documento ou da frase durante o teste.
935
1
As técnicas baseadas em reconstrução só podem ser aplicadas no nível da frase durante o treinamento.
As técnicas baseadas em reconstrução também podem ser aplicadas no nível do documento ou da frase durante o treinamento.
936
1
As técnicas baseadas em reconstrução também podem ser aplicadas no nível do documento ou da frase durante o treinamento.
As técnicas baseadas em reconstrução só podem ser aplicadas no nível da frase durante o treinamento.
937
1
Na prática, nossa avaliação extrativa proposta detectará poucos erros nessa passagem.
Na prática, nossa avaliação extrativa proposta detectará muitos erros nessa passagem.
938
1
Na prática, nossa proposta de avaliação extrativa detectará muitos erros nessa passagem.
Na prática, nossa avaliação extrativa proposta detectará poucos erros nessa passagem.
939
1
Da mesma forma, o uso de verbos com mais poder de agente nas narrativas femininas diminui as chances de duas personagens femininas mencionadas falarem sobre algo além de homens.
Da mesma forma, o uso de mais verbos que fortalecem o agente nas narrativas femininas diminui as chances de aprovação no teste de Bechdel.
940
0
Da mesma forma, o uso de mais verbos que fortalecem o agente nas narrativas femininas diminui as chances de aprovação no teste de Bechdel.
Da mesma forma, o uso de verbos com mais poder de agente nas narrativas femininas diminui as chances de duas personagens femininas mencionadas falarem sobre algo além de homens.
941
0
Da mesma forma, o uso de verbos com mais poder de agente nas narrativas femininas diminui as chances de os homens da narrativa falarem uns com os outros sobre as mulheres.
Da mesma forma, o uso de mais verbos que fortalecem o agente nas narrativas femininas diminui as chances de aprovação no teste de Bechdel.
942
1
Da mesma forma, o uso de mais verbos que fortalecem o agente nas narrativas femininas diminui as chances de aprovação no teste de Bechdel.
Da mesma forma, o uso de verbos com mais poder de agente nas narrativas femininas diminui as chances de os homens da narrativa falarem uns com os outros sobre as mulheres.
943
1
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão mais frequentemente em posições em que podem proibir ou permitir ações e decisões.
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão em posições de poder.
944
0
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão em posições de poder.
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão mais frequentemente em posições em que podem proibir ou permitir ações e decisões.
945
0
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão mais frequentemente em posições em que são bloqueados ou autorizados a fazer coisas por outros.
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão em posições de poder.
946
1
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão em posições de poder.
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão mais frequentemente em posições em que são bloqueados ou autorizados a fazer coisas por outros.
947
1
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão em posições de baixo poder.
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão em posições de poder.
948
1
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão em posições de poder.
Além disso, os personagens masculinos usam mais a linguagem inibitória (inib), que contém palavras relacionadas a bloquear ou permitir, sugerindo que esses personagens estão em posições de baixo poder.
949
1
Olhar fotos on-line de pessoas tentando tirar fotos de espelhos é a minha nova paixão...
Olhar fotos on-line de pessoas que tentam tirar fotos de espelhos que querem vender é a minha nova paixão...
950
1
Olhar fotos on-line de pessoas que tentam tirar fotos de espelhos que querem vender é a minha nova paixão...
Olhar fotos on-line de pessoas tentando tirar fotos de espelhos é a minha nova paixão...
951
1
Um vento tempestuoso passou pela clareira.
Um vento sereno soprava na clareira.
952
1
Um vento sereno soprava na clareira.
Um vento tempestuoso passou pela clareira.
953
1
Um vento leste soprava na clareira.
Um vento sereno soprava na clareira.
954
1
Um vento sereno soprava na clareira.
Um vento leste soprava na clareira.
955
1
Um vento calmo soprava na clareira.
Um vento sereno soprava na clareira.
956
0
Um vento sereno soprava na clareira.
Um vento calmo soprava na clareira.
957
0
Um vento soprava na clareira.
Um vento sereno soprava na clareira.
958
0
Um vento sereno soprava na clareira.
Um vento soprava na clareira.
959
1
O meio de reação ficou muito quente.
A reação foi fortemente exotérmica.
960
0
A reação foi fortemente exotérmica.
O meio de reação ficou muito quente.
961
0
A mídia de reação ficou muito fria.
A reação foi fortemente exotérmica.
962
1
A reação foi fortemente exotérmica.
A mídia de reação ficou muito fria.
963
1
O meio de reação ficou muito quente.
A reação foi fortemente endotérmica.
964
1
A reação foi fortemente endotérmica.
O meio de reação ficou muito quente.
965
1
A mídia de reação ficou muito fria.
A reação foi fortemente endotérmica.
966
0
A reação foi fortemente endotérmica.
A mídia de reação ficou muito fria.
967
0
Eu já o havia terminado.
Ela não achava que eu já tinha terminado, mas eu tinha.
968
0
Ela não achava que eu já tinha terminado, mas eu tinha.
Eu já o havia terminado.
969
1
Eu ainda não o havia terminado.
Ela não achava que eu já tinha terminado, mas eu tinha.
970
1
Ela não achava que eu já tinha terminado, mas eu tinha.
Eu ainda não o havia terminado.
971
1
Eu já o havia terminado.
Ela achou que eu já tinha terminado, mas não.
972
1
Ela achou que eu já tinha terminado, mas não.
Eu já o havia terminado.
973
1
Eu ainda não o havia terminado.
Ela achou que eu já tinha terminado, mas não.
974
0
Ela achou que eu já tinha terminado, mas não.
Eu ainda não o havia terminado.
975
1
Temple não fez nenhuma afirmação específica.
Temple disse que a empresa estava enfrentando dificuldades, mas não fez nenhuma afirmação específica.
976
0
Temple disse que a empresa estava enfrentando dificuldades, mas não fez nenhuma afirmação específica.
Temple não fez nenhuma afirmação específica.
977
1
A empresa não fez nenhuma reivindicação específica.
Temple disse que a empresa estava enfrentando dificuldades, mas não fez nenhuma afirmação específica.
978
1
Temple disse que a empresa estava enfrentando dificuldades, mas não fez nenhuma afirmação específica.
A empresa não fez nenhuma reivindicação específica.
979
1
A Temple não tinha chance de entrar no vermelho.
Temple disse que a empresa estava enfrentando dificuldades, mas não tinha chance de ficar no vermelho.
980
1
Temple disse que a empresa estava enfrentando dificuldades, mas não tinha chance de ficar no vermelho.
A Temple não tinha chance de entrar no vermelho.
981
1
Temple disse que a empresa não tinha chance de ficar no vermelho.
Temple disse que a empresa estava enfrentando dificuldades, mas não tinha chance de ficar no vermelho.
982
0
Temple disse que a empresa estava enfrentando dificuldades, mas não tinha chance de ficar no vermelho.
Temple disse que a empresa não tinha chance de entrar no vermelho.
983
1
As empresas que se concentraram em branding ainda tiveram lucros negativos.
Os lucros das empresas que se concentraram em branding ainda eram negativos.
984
0
Os lucros das empresas que se concentraram em branding ainda eram negativos.
As empresas que se concentraram em branding ainda tiveram lucros negativos.
985
0
Os lucros que se concentraram em branding ainda eram negativos.
Os lucros da empresa mais bem-sucedida ainda eram negativos.
986
1
Os lucros da empresa mais bem-sucedida ainda eram negativos.
Os lucros que se concentraram em branding ainda eram negativos.
987
1
As empresas que tiveram os maiores lucros nesse trimestre ainda tiveram lucros negativos.
Os lucros das empresas que foram mais altos nesse trimestre ainda foram negativos.
988
1
Os lucros das empresas que foram mais altos nesse trimestre ainda foram negativos.
As empresas que tiveram os maiores lucros nesse trimestre ainda tiveram lucros negativos.
989
1
Para as empresas, os lucros mais altos ainda eram negativos.
Os lucros das empresas que foram mais altos nesse trimestre ainda foram negativos.
990
0
Os lucros das empresas que foram mais altos nesse trimestre ainda foram negativos.
Para as empresas, os lucros mais altos ainda eram negativos.
991
0
Eu o cozinhei.
Eu fiz um bolo para ele.
992
1
Eu fiz um bolo para ele.
Eu o cozinhei.
993
1
Fiz um bolo para ele.
Eu fiz um bolo para ele.
994
0
Eu fiz um bolo para ele.
Fiz um bolo para ele.
995
0
Entreguei um bilhete a ele.
Eu lhe dei um bilhete.
996
0
Eu lhe dei um bilhete.
Entreguei um bilhete a ele.
997
0
O vaso quebrou.
Jake quebrou o vaso.
998
0
Jake quebrou o vaso.
O vaso quebrou.
999
1