wikipedia_portugues / README.md
vitorandrade's picture
Update README.md
ce3dfd2 verified

Dataset Card para Wikipedia em Português

Time 1 - NLP

Dados Gerais

Resumo

Este dataset é adequado para o projeto devido à sua vasta coleção de frases em português extraídas da Wikipedia, oferecendo uma ampla gama de conhecimentos gerais e específicos. Contendo artigos limpos em português, cada exemplo, contém um artigo completo da Wikipedia com limpeza para remover marcações e seções indesejadas(referências, citações, etc)

Foi realizado uma Análise Exploratória dos dados dos arquivos, sendo eles:

Conjunto de Treinamento: train-00000-of-00001.parquet (7.01MB);

Conjunto de Validação: evaluation-00000-of-00001.parquet (1.17MB);

Conjunto de Teste: test-00000-of-00001.parquet (1.18MB);

Utilização Pretendida

O portuguese_wikipedia_sentences no projeto vai ajudar o modelo aprender o idioma português.

Idiomas

Foi traduzida automáticamente para a Lingua Portuguesa.

Criação

Na Análise Exploratória dos dados realizada, verificou-se que os 3 arquivos parquet, para treinamento, teste e validação, possuem, respectivamente, 63.387, 10.565 e 10.565 registros, totalizando assim: 84.517 dados.

Dataset portuguese_wikipedia_sentences

Estrutura

Amostras

Os 3 arquivos disponibilizados de dados no formato parquet, conforme apresentado abaixo:

text
0  Estas atividades fizeram dela uma das mulheres...
1  Ryan também anunciou que o nome da personagem ...
2  O solo, é constituído por uma calçada em mosai...
3  Em 1514, ele apelou a Roma e uma comissão foi ...
4  O Los Angeles Clippers é um time de basquete d...

Campos dos Dados

  • text: campo que trata de um determinado assunto/tema relacionado.

Divisão dos Dados

Conforme apresentado anteriormente,o conjunto de dados está dividido em treinamento com 63.387 registros, validação com 10.565 registros e teste também com 10.565 registros.

Totalizando 84.517 registros.

Foram gerados 3 arquivos parquet, e carregados na plataforma HungginFace, sendo eles:

evaluation-00000-of-00001.parquet
test-00000-of-00001.parquet
train-00000-of-00001.parquet

Para carregar os datasets basta utilizar os seguintes comandos:

    # importar a biblioteca
    from datasets import load_dataset
    # carregar os datasets
    dataset = load_dataset("jvanz/portuguese_wikipedia_sentences")

Que devem gerar a seguinte saída:

DatasetDict({
    train: Dataset({
        features: ['text'],
        num_rows: 63387
    })
    test: Dataset({
        features: ['text'],
        num_rows: 10565
    })
    evaluation: Dataset({
        features: ['text'],
        num_rows: 10565
    })
})