Datasets:
Tasks:
Sentence Similarity
Modalities:
Text
Formats:
parquet
Sub-tasks:
semantic-similarity-classification
Languages:
English
Size:
1K - 10K
Tags:
License:
File size: 2,421 Bytes
01427e4 305b0d2 e3d87ef 305b0d2 2377c5d 305b0d2 2377c5d e3d87ef 9eb8384 e3d87ef 9eb8384 e3d87ef 01427e4 58b25ef c4e30f1 58b25ef c4e30f1 58b25ef bdb1c5c 58b25ef bdb1c5c 58b25ef c4e30f1 58b25ef f23d689 58b25ef c4e30f1 58b25ef c4e30f1 58b25ef c4e30f1 58b25ef c4e30f1 58b25ef c4e30f1 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 |
---
annotations_creators:
- no-annotation
language_creators:
- found
language:
- eng
license:
- apache-2.0
multilinguality:
- monolingual
size_categories:
- 1K<n<10K
source_datasets:
- original
task_categories:
- sentence-similarity
task_ids:
- semantic-similarity-classification
dataset_info:
features:
- name: html_url
dtype: string
- name: title
dtype: string
- name: comments
dtype: string
- name: body
dtype: string
- name: comment_length
dtype: int64
- name: text
dtype: string
splits:
- name: train
num_bytes: 5968669
num_examples: 1061
download_size: 1229293
dataset_size: 5968669
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
---
# Dataset Card for Dataset Name
## Dataset Summary in English
This customized dataset is made of a corpus of commun Github issues, typically utilized for tracking bugs or features within a repositories. This self-constructed corpus can serve multiple purposes, such as analyzing the time taken to resolve open issues or pull requests, training a classifier to tag issues based on their descriptions (e.g., "bug," "enhancement," "question"), or developing a semantic search engine for finding relevant issues based on user queries.
## Résumé de l'ensemble de jeu de données en français
Ce jeu de données personnalisé est constitué d'un corpus de problèmes couramment rencontrés sur GitHub, généralement utilisés pour le suivi des bugs ou des fonctionnalités au sein des repositories. Ce corpus auto construit peut servir à de multiples fins, telles que l'analyse du temps nécessaire pour résoudre les problèmes ouverts ou les demandes d'extraction, l'entraînement d'un classificateur pour étiqueter les problèmes sur la base de leurs descriptions (par exemple, "bug", "amélioration", "question"), ou le développement d'un moteur de recherche sémantique pour trouver des problèmes pertinents sur la base des requêtes de l'utilisateur.
### Languages
English
## Dataset Structure
### Data Splits
Train
### Personal and Sensitive Information
Not applicable.
## Considerations for Using the Data
### Social Impact of Dataset
Not applicable.
### Discussion of Biases
Possible. Comments within dataset were not monitored and are uncensored.
### Licensing Information
Apache 2.0
### Citation Information
https://github.com/huggingface/datasets/issues
|