Dataset Card para Wikipedia em Português
Time 1 - NLP
Dados Gerais
- Nome: portuguese_wikipedia_sentences
- Página WEB: portuguese_wikipedia_sentences
- Repositório: portuguese_wikipedia_sentences
Resumo
Este dataset é adequado para o projeto devido à sua vasta coleção de frases em português extraídas da Wikipedia, oferecendo uma ampla gama de conhecimentos gerais e específicos. Contendo artigos limpos em português, cada exemplo, contém um artigo completo da Wikipedia com limpeza para remover marcações e seções indesejadas(referências, citações, etc)
Foi realizado uma Análise Exploratória dos dados dos arquivos, sendo eles:
Conjunto de Treinamento: train-00000-of-00001.parquet (7.01MB);
Conjunto de Validação: evaluation-00000-of-00001.parquet (1.17MB);
Conjunto de Teste: test-00000-of-00001.parquet (1.18MB);
Utilização Pretendida
O portuguese_wikipedia_sentences no projeto vai ajudar o modelo aprender o idioma português.
Idiomas
Foi traduzida automáticamente para a Lingua Portuguesa.
Criação
Na Análise Exploratória dos dados realizada, verificou-se que os 3 arquivos parquet, para treinamento, teste e validação, possuem, respectivamente, 63.387, 10.565 e 10.565 registros, totalizando assim: 84.517 dados.
Dataset portuguese_wikipedia_sentences
Estrutura
Amostras
Os 3 arquivos disponibilizados de dados no formato parquet, conforme apresentado abaixo:
text
0 Estas atividades fizeram dela uma das mulheres...
1 Ryan também anunciou que o nome da personagem ...
2 O solo, é constituído por uma calçada em mosai...
3 Em 1514, ele apelou a Roma e uma comissão foi ...
4 O Los Angeles Clippers é um time de basquete d...
Campos dos Dados
- text: campo que trata de um determinado assunto/tema relacionado.
Divisão dos Dados
Conforme apresentado anteriormente,o conjunto de dados está dividido em treinamento com 63.387 registros, validação com 10.565 registros e teste também com 10.565 registros.
Totalizando 84.517 registros.
Foram gerados 3 arquivos parquet, e carregados na plataforma HungginFace, sendo eles:
evaluation-00000-of-00001.parquet
test-00000-of-00001.parquet
train-00000-of-00001.parquet
Para carregar os datasets basta utilizar os seguintes comandos:
# importar a biblioteca
from datasets import load_dataset
# carregar os datasets
dataset = load_dataset("jvanz/portuguese_wikipedia_sentences")
Que devem gerar a seguinte saída:
DatasetDict({
train: Dataset({
features: ['text'],
num_rows: 63387
})
test: Dataset({
features: ['text'],
num_rows: 10565
})
evaluation: Dataset({
features: ['text'],
num_rows: 10565
})
})