parquet-converter
commited on
Commit
•
1756161
1
Parent(s):
3fcd680
Update parquet files
Browse files- .gitattributes +0 -29
- README.md +0 -162
- cstr.py +0 -158
- train.jsonl → extraction/cstr-test.parquet +2 -2
- test.jsonl → extraction/cstr-train.parquet +2 -2
- generation/cstr-test.parquet +3 -0
- generation/cstr-train.parquet +3 -0
- raw/cstr-test.parquet +3 -0
- raw/cstr-train.parquet +3 -0
.gitattributes
DELETED
@@ -1,29 +0,0 @@
|
|
1 |
-
*.7z filter=lfs diff=lfs merge=lfs -text
|
2 |
-
*.arrow filter=lfs diff=lfs merge=lfs -text
|
3 |
-
*.bin filter=lfs diff=lfs merge=lfs -text
|
4 |
-
*.bin.* filter=lfs diff=lfs merge=lfs -text
|
5 |
-
*.bz2 filter=lfs diff=lfs merge=lfs -text
|
6 |
-
*.ftz filter=lfs diff=lfs merge=lfs -text
|
7 |
-
*.gz filter=lfs diff=lfs merge=lfs -text
|
8 |
-
*.h5 filter=lfs diff=lfs merge=lfs -text
|
9 |
-
*.joblib filter=lfs diff=lfs merge=lfs -text
|
10 |
-
*.lfs.* filter=lfs diff=lfs merge=lfs -text
|
11 |
-
*.model filter=lfs diff=lfs merge=lfs -text
|
12 |
-
*.msgpack filter=lfs diff=lfs merge=lfs -text
|
13 |
-
*.onnx filter=lfs diff=lfs merge=lfs -text
|
14 |
-
*.ot filter=lfs diff=lfs merge=lfs -text
|
15 |
-
*.parquet filter=lfs diff=lfs merge=lfs -text
|
16 |
-
*.pb filter=lfs diff=lfs merge=lfs -text
|
17 |
-
*.pt filter=lfs diff=lfs merge=lfs -text
|
18 |
-
*.pth filter=lfs diff=lfs merge=lfs -text
|
19 |
-
*.rar filter=lfs diff=lfs merge=lfs -text
|
20 |
-
saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
21 |
-
*.tar.* filter=lfs diff=lfs merge=lfs -text
|
22 |
-
*.tflite filter=lfs diff=lfs merge=lfs -text
|
23 |
-
*.tgz filter=lfs diff=lfs merge=lfs -text
|
24 |
-
*.xz filter=lfs diff=lfs merge=lfs -text
|
25 |
-
*.zip filter=lfs diff=lfs merge=lfs -text
|
26 |
-
*.zstandard filter=lfs diff=lfs merge=lfs -text
|
27 |
-
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
28 |
-
test.jsonl filter=lfs diff=lfs merge=lfs -text
|
29 |
-
train.jsonl filter=lfs diff=lfs merge=lfs -text
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
README.md
DELETED
@@ -1,162 +0,0 @@
|
|
1 |
-
## Dataset Summary
|
2 |
-
|
3 |
-
A dataset for benchmarking keyphrase extraction and generation techniques from english scientific papers. For more details about the dataset please refer the original paper - [https://dl.acm.org/doi/abs/10.1145/313238.313437](https://dl.acm.org/doi/abs/10.1145/313238.313437)
|
4 |
-
|
5 |
-
Original source of the data - []()
|
6 |
-
|
7 |
-
|
8 |
-
## Dataset Structure
|
9 |
-
|
10 |
-
|
11 |
-
### Data Fields
|
12 |
-
|
13 |
-
- **id**: unique identifier of the document.
|
14 |
-
- **document**: Whitespace separated list of words in the document.
|
15 |
-
- **doc_bio_tags**: BIO tags for each word in the document. B stands for the beginning of a keyphrase and I stands for inside the keyphrase. O stands for outside the keyphrase and represents the word that isn't a part of the keyphrase at all.
|
16 |
-
- **extractive_keyphrases**: List of all the present keyphrases.
|
17 |
-
- **abstractive_keyphrase**: List of all the absent keyphrases.
|
18 |
-
|
19 |
-
|
20 |
-
### Data Splits
|
21 |
-
|
22 |
-
|Split| #datapoints |
|
23 |
-
|--|--|
|
24 |
-
| Train | 130 |
|
25 |
-
| Test | 500 |
|
26 |
-
|
27 |
-
Train
|
28 |
-
|
29 |
-
- Percentage of keyphrases that are named entities: 69.49% (named entities detected using scispacy - en-core-sci-lg model)
|
30 |
-
- Percentage of keyphrases that are noun phrases: 81.26% (noun phrases detected using spacy en-core-web-lg after removing determiners)
|
31 |
-
|
32 |
-
Test
|
33 |
-
|
34 |
-
- Percentage of keyphrases that are named entities: 70.79% (named entities detected using scispacy - en-core-sci-lg model)
|
35 |
-
- Percentage of keyphrases that are noun phrases: 82.74% (noun phrases detected using spacy en-core-web-lg after removing determiners)
|
36 |
-
|
37 |
-
|
38 |
-
## Usage
|
39 |
-
|
40 |
-
### Full Dataset
|
41 |
-
|
42 |
-
```python
|
43 |
-
from datasets import load_dataset
|
44 |
-
|
45 |
-
# get entire dataset
|
46 |
-
dataset = load_dataset("midas/cstr", "raw")
|
47 |
-
|
48 |
-
# sample from the train split
|
49 |
-
print("Sample from train dataset split")
|
50 |
-
test_sample = dataset["train"][0]
|
51 |
-
print("Fields in the sample: ", [key for key in test_sample.keys()])
|
52 |
-
print("Tokenized Document: ", test_sample["document"])
|
53 |
-
print("Document BIO Tags: ", test_sample["doc_bio_tags"])
|
54 |
-
print("Extractive/present Keyphrases: ", test_sample["extractive_keyphrases"])
|
55 |
-
print("Abstractive/absent Keyphrases: ", test_sample["abstractive_keyphrases"])
|
56 |
-
print("\n-----------\n")
|
57 |
-
|
58 |
-
# sample from the test split
|
59 |
-
print("Sample from test dataset split")
|
60 |
-
test_sample = dataset["test"][0]
|
61 |
-
print("Fields in the sample: ", [key for key in test_sample.keys()])
|
62 |
-
print("Tokenized Document: ", test_sample["document"])
|
63 |
-
print("Document BIO Tags: ", test_sample["doc_bio_tags"])
|
64 |
-
print("Extractive/present Keyphrases: ", test_sample["extractive_keyphrases"])
|
65 |
-
print("Abstractive/absent Keyphrases: ", test_sample["abstractive_keyphrases"])
|
66 |
-
print("\n-----------\n")
|
67 |
-
```
|
68 |
-
**Output**
|
69 |
-
|
70 |
-
```bash
|
71 |
-
Sample from training data split
|
72 |
-
Fields in the sample: ['id', 'document', 'doc_bio_tags', 'extractive_keyphrases', 'abstractive_keyphrases', 'other_metadata']
|
73 |
-
Tokenized Document: ['Reasoning', 'with', 'Non-Atomic', 'Memories', 'Manhoi', 'Choy', '?', 'and', 'Ambuj', 'K.', 'Singh', '?', 'Department', 'of', 'Computer', 'Science', 'University', 'of', 'California', 'at', 'Santa', 'Barbara', 'Santa', 'Barbara', ',', 'CA', '93106', 'August', '3', ',', '1993', 'Abstract', 'A', 'method', 'for', 'reasoning', 'with', 'non-atomic', 'memory', 'is', 'developed', '.', 'A', 'program', 'using', 'non-atomic', 'memory', 'is', 'transformed', 'into', 'an', 'equivalent', 'one', 'that', 'uses', 'atomic', 'memory', '.', 'A', 'number', 'of', 'non-atomic', 'memories', 'including', 'pipelined', 'RAM', ',', 'causal', 'memory', ',', 'and', 'hybrid', 'consistency', 'are', 'examined', '.', 'The', 'approach', 'is', 'illustrated', 'with', 'some', 'examples', '.', '1', 'Introduction', 'The', 'traditional', 'abstraction', 'of', 'shared', 'memory', 'which', 'supported', 'atomic', 'reads', 'and', 'writes', 'has', 'come', 'under', 'increasing', 'scrutiny', '.', 'Hardware', 'architects', 'seem', 'to', 'agree', 'that', 'atomic', 'memory', 'leads', 'to', 'a', 'large', 'latency', 'that', 'is', 'unacceptable', 'for', 'efficient', 'programming', '.', 'Based', 'on', 'this', 'observation', ',', 'non-atomic', 'abstractions', 'of', 'shared', 'memory', 'have', 'been', 'proposed', 'in', 'the', 'literature', '.', 'These', 'definitions', 'are', 'usually', 'motivated', 'by', 'hardware', 'and', 'their', 'semantics', 'and', 'usefulness', 'from', 'the', 'point', 'of', 'view', 'of', 'a', 'user', 'are', 'far', 'from', 'clear', '.', 'Coupled', 'with', 'the', 'problems', 'of', 'concurrency', 'and', 'non-determinism', ',', 'these', 'definitions', 'have', 'the', 'potential', 'of', 'making', 'the', 'programming', 'of', 'concurrent', 'systems', 'very', 'difficult', '.', 'This', 'paper', 'examines', 'some', 'existing', 'definitions', 'of', 'non-atomic', 'memories', 'and', 'provides', 'a', 'mechanism', 'for', 'reasoning', 'about', 'them', '.', 'Instead', 'of', 'designing', 'a', 'new', 'proof', 'system', 'for', 'each', 'kind', 'of', 'non-atomic', 'memory', ',', 'our', 'approach', 'is', 'to', 'define', 'rules', 'for', 'transforming', 'a', 'program', 'that', 'uses', 'non-atomic', 'memory', 'into', 'an', 'equivalent', 'program', 'that', 'uses', 'atomic', 'memory', '.', 'The', 'transformed', 'program', 'can', 'then', 'be', 'proved', 'using', 'any', 'of', 'the', 'existing', 'proof', 'systems', 'such', 'as', 'Temporal', 'logic', '-LSB-', '15', '-RSB-', 'and', 'Unity', '-LSB-', '6', '-RSB-', '.', 'Besides', 'providing', 'a', 'technique', 'for', 'reasoning', 'about', 'non-atomic', 'memory', ',', 'the', 'approach', 'also', 'provides', 'a', 'clear', 'uniform', 'semantics', 'for', 'the', 'non-atomic', 'memories', '.', 'Traditional', 'approaches', 'toward', 'defining', 'non-atomic', 'memories', 'are', 'based', 'on', 'histories', '.', 'Systemwide', 'execution', 'histories', 'are', 'considered', 'and', 'those', 'that', 'satisfy', 'the', 'specification', 'are', 'isolated', 'by', 'considering', 'interleavings', 'of', 'events', '.', 'It', 'may', 'be', 'difficult', 'for', 'users', 'to', 'understand', 'the', 'semantics', 'of', 'non-atomic', 'operations', 'in', 'such', 'an', 'approach', '.', 'In', 'contrast', ',', 'the', 'technique', 'proposed', 'here', 'is', 'based', 'on', 'the', 'idea', 'of', 'transforming', 'each', 'non-atomic', 'operation', 'as', 'a', 'set', 'of', 'atomic', 'operations', '.', 'The', 'motivation', 'is', 'to', 'show', 'that', 'understanding', 'non-atomic', 'memories', 'is', ',', 'in', 'principle', ',', '?', 'Work', 'supported', 'in', 'part', 'by', 'NSF', 'grant', 'CCR-9008628', '.', 'no', 'harder', 'that', 'understanding', 'atomic', 'memories', '.', 'This', 'approach', 'of', 'transforming', 'a', 'program', 'that', 'uses', 'non-atomic', 'variables', 'into', 'one', 'that', 'uses', 'atomic', 'variables', 'was', 'used', 'earlier', 'by', 'Anderson', 'and', 'Gouda', '-LSB-', '3', '-RSB-', 'to', 'prove', 'the', 'correctness', 'of', 'programs', 'that', 'use', 'safe', 'and', 'regular', 'variables', '-LSB-', '11', '-RSB-', '.', 'The', 'specific', 'abstractions', 'of', 'non-atomic', 'memory', 'that', 'we', 'examine', 'include', 'pipelined', 'RAM', '-LSB-', '12', '-RSB-', ',', 'causal', 'memory', '-LSB-', '2', '-RSB-', ',', 'TSO', 'and', 'PSO', 'memory', 'models', 'of', 'Sparc', '-LSB-', '9', '-RSB-', ',', 'and', 'hybrid', 'consistency', '-LSB-', '5', '-RSB-', '.', 'In', 'each', 'of', 'these', 'cases', ',', 'suitable', 'auxiliary', 'variables', 'are', 'defined', 'in', 'the', 'process', 'of', 'transformation', '.', 'These', 'auxiliary', 'variables', 'may', 'be', 'viewed', 'as', 'an', 'abstract', 'implementation', 'of', 'the', 'corresponding', 'kind', 'of', 'memory', '.', 'The', 'rest', 'of', 'the', 'paper', 'is', 'organized', 'as', 'follows', '.', 'Sections', '2', 'through', '6', 'examine', 'the', 'different', 'kinds', 'of', 'memory', '.', 'In', 'each', 'case', ',', 'rules', 'for', 'transforming', 'each', 'non-atomic', 'read', 'and', 'write', 'are', 'included', '.', 'In', 'some', 'cases', ',', 'the', 'transformations', 'are', 'also', 'illustrated', 'with', 'small', 'examples', '.', 'Section', '7', 'includes', 'a', 'brief', 'discussion', '.', '2', 'Pipelined', 'RAM', 'In', 'this', 'kind', 'of', 'non-atomic', 'memory', 'introduced', 'by', 'Lipton', 'and', 'Sandberg', '-LSB-', '12', '-RSB-', ',', 'every', 'process', 'has', 'its', 'own', 'copy', 'of', 'the', 'shared', 'memory', '.', 'A', 'read', 'operation', 'is', 'performed', 'by', 'reading', 'this', 'local', 'copy', 'and', 'a', 'write', 'operation', 'is', 'performed', 'by', 'updating', 'the', 'local', 'copy', 'and', 'sending', 'the', 'update', 'to', 'all', 'other', 'processes', 'on', 'FIFO', 'channels', '.', 'These', 'updates', 'are', 'then', 'executed', 'asynchronously', 'at', 'the', 'remote', 'processes', '.', 'In', 'order', 'to', 'model', 'this', 'memory', ',', 'we', 'introduce', 'the', 'following', 'auxiliary', 'variables', 'for', 'each', 'shared', 'variable', 'x', 'and', 'each', 'process', 'p', ':', 'ffl', 'xp', ',', 'a', 'local', 'copy', 'of', 'variable', 'x', 'at', 'process', 'p', '.', 'It', 'is', 'initialized', 'to', 'the', 'initial', 'value', 'of', 'x.', 'ffl', 'Xp', ',', 'a', 'set', 'containing', 'the', 'updates', 'performed', 'by', 'remote', 'processes', 'on', 'variable', 'x.', 'Each', 'tuple', 'in', 'Xp', 'consists', 'of', 'three', 'fields', ':', 'the', 'updated', 'value', ',', 'the', 'timestamp', 'of', 'the', 'updating', 'process', ',', 'and', 'the', 'identity', 'of', 'the', 'updating', 'process', '.', 'It', 'is', 'initialized', 'to', 'an', 'empty', 'set', '.', 'ffl', 'tsp', ',', 'a', 'counter', 'that', 'is', 'used', 'for', 'distinguishing', 'updates', 'by', 'process', 'p', '.', 'It', 'is', 'initialized', 'to', '0', '.', 'Each', 'read', 'and', 'write', 'operation', 'of', 'process', 'p', 'is', 'now', 'translated', 'as', 'follows', '.', '1', '.', 'A', 'read', 'statement', 'v', ':', '=', 'x', 'is', 'translated', 'to', 'v', ':', '=', 'xp', ',', 'i.e.', ',', 'the', 'local', 'copy', 'is', 'read', '.', '2', '.', 'A', 'write', 'statement', 'x', ':', '=', 'm', 'is', 'translated', 'to', 'an', 'update', 'of', 'the', 'local', 'copy', 'along', 'with', 'an', 'increment', 'of', 'the', 'local', 'counter', ',', 'followed', 'by', 'a', 'transmittal', 'of', 'the', 'update', 'to', 'all', 'other', 'processes', ':', 'xp', ';', 'tsp', ':', '=', 'm', ';', 'tsp', '+', '1', ';', 'h8q', ':', 'q', '<', '>', 'p', ':', 'Xq', ':', '=', 'Xq', '-LSB-', 'f', '-LRB-', 'm', ';', 'tsp', ';', 'p', '-RRB-', 'gi', '.', '3', '.', 'Finally', ',', 'for', 'each', 'shared', 'variable', 'x', ',', 'we', 'add', 'a', 'process', 'Mp', ';', 'x', 'that', 'services', 'the', 'remote', 'updates', 'for', 'variable', 'x', 'at', 'process', 'p.', 'Process', 'Mp', ';', 'x', 'examines', 'the', 'contents', 'of', 'set', 'Xp', 'and', 'assigns', 'the', 'values', 'existing', 'there', 'to', 'xp', 'in', 'a', 'FIFO', 'order', ':', 'repeat', 'if', 'Xp', '<', '>', 'fg', 'then', 'xp', ';', 'Xp', ':', '=', 'm', ';', 'Xp', '?', 'f', '-LRB-', 'm', ';', 'ts', ';', 'q', '-RRB-', 'g', 'where', 'Min', '-LRB-', 'Xp', ';', '-LRB-', 'm', ';', 'ts', ';', 'q', '-RRB-', '-RRB-', 'forever', 'Predicate', 'Min', '-LRB-', 'S', ';', 't', '-RRB-', 'denotes', 'that', 'tuple', 't', 'is', 'a', 'minimal', 'element', 'in', 'set', 'S', 'in', 'a', 'specified', 'ordering', '.', 'In', 'this', 'case', ',', 'tuple', 't', 'is', 'less', 'than', 'tuple', 't0', 'provided', 'they', 'mention', 'the', 'same']
|
74 |
-
Document BIO Tags: ['O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O']
|
75 |
-
Extractive/present Keyphrases: ['concurrency']
|
76 |
-
Abstractive/absent Keyphrases: ['memory consistency conditions', 'program correctness']
|
77 |
-
|
78 |
-
-----------
|
79 |
-
|
80 |
-
Sample from test data split
|
81 |
-
Fields in the sample: ['id', 'document', 'doc_bio_tags', 'extractive_keyphrases', 'abstractive_keyphrases', 'other_metadata']
|
82 |
-
Tokenized Document: ['Dynamic', 'analysis', 'of', 'some', 'Relational', 'Data', 'Bases', 'parameters', 'I', ':', 'Projections', 'Dani?ele', 'GARDY', '?', 'Guy', 'LOUCHARDy', 'January', '1994', 'Abstract', 'We', 'present', 'a', 'dynamic', 'study', 'of', 'a', 'data', 'structure', 'related', 'to', 'relational', 'databases', '.', 'We', 'show', 'that', 'some', 'parameters', 'of', 'relational', 'databases', '-LRB-', 'sizes', 'of', 'projections', '-RRB-', ',', 'related', 'to', 'an', 'occupancy', 'problem', 'in', 'urn', 'models', ',', 'behave', 'asymptotically', 'as', 'gaussian', 'stochastic', 'processes', 'under', 'a', 'sequence', 'of', 'updates', 'and', 'queries', '.', 'As', 'a', 'consequence', ',', 'we', 'analyze', 'the', 'distribution', 'of', 'the', 'maximum', 'size', 'of', 'the', 'projection', '.', '1', 'Introduction', 'We', 'consider', 'dynamic', 'objects', ',', 'obtained', 'by', 'updating', 'and', 'querying', 'a', 'data', 'structure', ',', 'on', 'which', 'we', 'want', 'to', 'study', 'a', 'parameter', ',', 'most', 'often', 'defining', 'some', 'size', '.', 'This', 'parameter', 'defines', 'a', 'random', 'variable', ',', 'and', 'we', 'study', 'its', 'behaviour', 'when', 'the', 'initial', 'object', 'is', 'submitted', 'to', 'a', 'sequence', 'of', 'insertions', ',', 'deletions', 'and', 'queries', ',', 'characterizing', 'it', '-LRB-', 'when', 'possible', '-RRB-', 'as', 'a', 'gaussian', 'stochastic', 'process', '.', 'The', 'dynamic', 'objects', 'are', 'here', 'relations', 'in', 'a', 'relational', 'database', ',', 'and', 'the', 'parameter', 'we', 'want', 'to', 'study', 'is', 'the', 'size', 'of', 'their', 'projection', 'on', 'a', 'set', 'of', 'attributes', '.', 'We', 'gave', 'in', 'a', 'former', 'paper', 'conditions', 'which', 'ensure', 'that', ',', 'in', 'the', 'static', 'case', '-LRB-', 'i.e.', 'at', 'a', 'given', 'time', '-RRB-', ',', 'the', 'size', 'of', 'the', 'projection', 'of', 'a', 'relation', 'follows', 'a', 'normal', 'limiting', 'distribution', '.', 'Our', 'goal', 'here', 'is', 'to', 'study', 'the', 'variation', 'of', 'the', 'size', 'of', 'the', 'projection', 'under', 'a', 'sequence', 'of', 'queries', 'and', 'updates', '.', 'We', 'shall', 'show', 'that', 'it', 'is', 'a', 'gaussian', 'process', ',', 'and', 'analyze', 'its', 'maximum', '.', '?', 'Laboratoire', 'PRISM', ',', 'Universit?e', 'de', 'Versailles', 'Saint-Quentin', ',', '78035', 'Versailles', '-LRB-', 'France', '-RRB-', '.', 'This', 'research', 'was', 'partly', 'supported', 'by', 'ESPRIT', 'III-Basic', 'Research', 'Action', 'ALCOM', 'II', '-LRB-', 'no.', '7141', '-RRB-', ',', 'by', 'the', 'CNRS', 'PRC', 'Math?ematique', '-', 'Informatique', 'and', 'by', 'a', 'cooperation', 'between', 'the', 'CNRS', 'and', 'the', 'FNRS', '.', 'yD?epartement', "d'Informatique", ',', 'Universit?e', 'Libre', 'de', 'Bruxelles', ',', 'Bruxelles', '-LRB-', 'Belgique', '-RRB-', '.', 'This', 'research', 'was', 'partially', 'supported', 'by', 'a', 'cooperation', 'between', 'the', 'FNRS', 'and', 'the', 'CNRS', '.', 'R', 'X', 'Y', 'x0', 'y0', 'x1', 'y1', 'x1', 'y2', 'ssX', '-LRB-', 'R', '-RRB-', 'X', 'x0', 'x1', 'Figure', '1', ':', 'Projection', 'of', 'the', 'relation', 'R', '-LSB-', 'X', ',', 'Y', '-RSB-', 'on', 'the', 'attribute', 'X', 'The', 'paper', 'is', 'organized', 'as', 'follows', '.', 'Section', '2', 'presents', 'the', 'database', 'parameters', 'that', 'we', 'shall', 'study', 'and', 'gives', 'a', 'modelization', 'in', 'terms', 'of', 'urn', 'models', ',', 'then', 'briefly', 'recalls', 'the', 'sequences', 'of', 'operations', 'which', 'may', 'be', 'considered', '.', 'Section', '3', 'gives', 'our', 'main', 'results', '-LRB-', 'characterization', 'of', 'the', 'parameter', 'we', 'study', 'as', 'a', 'gaussian', 'process', 'and', 'distribution', 'of', 'its', 'maximum', '-RRB-', 'and', 'presents', 'an', 'overview', 'of', 'our', 'method', ',', 'with', 'a', 'sketch', 'of', 'the', 'proof', '.', 'Section', '4', 'introduces', 'our', 'notations', ',', 'then', 'Section', '5', 'presents', 'the', 'basic', 'processes', '-LRB-', 'number', 'of', 'tuples', 'in', 'a', 'relation', '-RRB-', 'corresponding', 'to', 'different', 'update', 'models', 'and', 'to', 'several', 'constraints', 'on', 'the', 'initial', 'objects', '-LRB-', 'relations', '-RRB-', '.', 'Sections', '6', 'to', '10', 'are', 'devoted', 'to', 'the', 'detailed', 'proofs', '.', '2', 'Databases', 'and', 'urn', 'models', '2.1', 'Projections', 'and', 'the', 'occupancy', 'problem', 'in', 'urn', 'models', 'We', 'briefly', 'recall', 'here', 'some', 'definitions', 'relative', 'to', 'relational', 'databases', 'and', 'to', 'the', 'modelization', 'of', 'relations', ';', 'we', 'refer', 'the', 'reader', 'to', '-LSB-', '7', '-RSB-', 'for', 'a', 'detailed', 'presentation', '.', 'The', 'basic', 'objects', 'we', 'consider', 'are', 'relations', ',', 'which', 'are', 'sets', 'of', '-LRB-', 'distinct', '-RRB-', 'tuples', '.', 'They', 'can', 'be', 'seen', 'as', 'tables', ':', 'a', 'row', 'represents', 'a', 'tuple', ',', 'and', 'the', 'number', 'of', 'lines', 'is', 'the', 'number', 'of', 'elements', 'of', 'the', 'relation', '-LRB-', 'its', 'size', '-RRB-', ';', 'the', 'columns', 'are', 'called', 'the', 'attributes', '.', 'The', 'projection', 'of', 'a', 'relation', 'on', 'a', 'subset', 'of', 'the', 'set', 'of', 'attributes', 'is', 'a', 'new', 'relation', ',', 'obtained', 'by', 'suppressing', 'the', 'corresponding', 'columns', ',', 'then', 'all', 'the', 'duplicate', 'rows', 'in', 'the', 'resulting', 'table', ':', 'We', 'keep', 'only', 'one', 'instance', 'of', 'each', 'tuple', '.', 'We', 'give', 'in', 'Figure', '1', 'an', 'instance', 'of', 'a', 'relation', 'R', '-LSB-', 'X', ',', 'Y', '-RSB-', 'and', 'of', 'its', 'projection', '-LRB-', 'noted', 'ssX', '-LRB-', 'R', '-RRB-', '-RRB-', 'on', 'the', 'attribute', 'X.', 'For', 'ease', 'of', 'presentation', ',', 'and', 'without', 'loss', 'of', 'generality', ',', 'we', 'shall', 'restrict', 'ourselves', 'to', 'the', 'case', 'of', 'a', 'relation', 'R', 'with', 'two', 'attributes', 'X', 'and', 'Y', ',', 'and', 'of', 'its', 'projection', 'on', 'X', '.', 'We', 'shall', 'use', 'the', 'terms', 'initial', 'relation', 'for', 'the', 'relation', 'R', ',', 'and', 'derived', 'relation', 'for', 'its', 'projection', '.', 'Let', 'd', 'be', 'the', 'number', 'of', 'distinct', 'possible', 'values', 'for', 'the', 'attribute', 'X', ';', 'we', 'assume', 'that', ',', 'although', 'it', 'may', 'become', 'large', ',', 'd', 'is', 'finite', '.', 'The', 'projection', 'of', 'the', 'relation', 'R', 'can', 'be', 'modelized', 'with', 'urns', 'and', 'balls', ',', 'according', 'to', 'a', 'well-known', 'occupancy', 'model', ',', 'as', 'follows', '.', 'We', 'consider', 'a', 'sequence', 'of', 'd', 'urns', ',', 'each', 'urn', 'being', 'labelled', 'with', 'a', 'distinct', 'value', 'of', 'the', 'attribute', 'X.', 'To', 'each', 'tuple', 'of', 'the', 'relation', 'R', ',', 'we', 'associate', 'a', 'ball', 'labelled', 'by', 'the', 'value', 'of', 'the', 'tuple', 'on', 'the', 'column', 'X', ';', 'this', 'ball', 'falls', 'into', 'the', 'corresponding', 'urn', '.', 'An', 'equivalent', 'way', 'of', 'seeing', 'this', 'phenomenon', 'is', 'to', 'consider', 'instead', 'that', 'we', 'have', 'a', 'finite', 'supply', 'of', 'balls', ',', 'and', 'that', 'we', 'allocate', 'them', 'at', 'random', 'among', 'the', 'd', 'urns', ',', 'each', 'trial', 'being', 'independent', 'of', 'the', 'others', '.', 'Each', 'ball', 'then', 'receives', 'the', 'label', 'of', 'the', 'urn', 'it', 'falls', 'into', '.', 'After', 'coupling', 'all', 'the', 'tuples', 'of', 'the', 'initial', 'relation', 'R', 'with', 'urns', ',', 'some', 'urns', 'are', 'empty', 'and', 'some', 'contain', 'at', 'least', 'one', 'ball', '.', 'The', 'number', 'of', 'urns', 'with', 'at', 'least', 'one', 'ball', 'is', 'exactly', 'the', 'number', 'of', 'tuples', 'in', 'the', 'projection', 'of', 'the', 'relation', 'R.', 'If', ',', 'instead', 'of', 'the', 'number', 'of', 'urns', 'with', 'at', 'least', 'one', 'ball', ',', 'we', 'consider', 'the', 'number', 'of', 'empty', 'urns', ',', 'and', 'if', 'we', 'assume', 'that', 'each', 'urn', 'can', 'receive', 'an', 'unbounded', 'number', 'of', 'balls', ',', 'then', 'we', 'have', 'the', 'classical', 'occupancy', 'problem', 'presented', 'for', 'example', 'in', '-LSB-', '8', '-RSB-', '.', 'Assuming', 'that', 'the', 'urn', 'size', 'is', 'infinite', 'corresponds', ',', 'in', 'terms', 'of', 'relational', 'databases', ',', 'to', 'a']
|
83 |
-
Document BIO Tags: ['O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O']
|
84 |
-
Extractive/present Keyphrases: ['derived relation', 'gaussian process', 'occupancy problem', 'relational database', 'urn model']
|
85 |
-
Abstractive/absent Keyphrases: []
|
86 |
-
|
87 |
-
-----------
|
88 |
-
```
|
89 |
-
|
90 |
-
### Keyphrase Extraction
|
91 |
-
```python
|
92 |
-
from datasets import load_dataset
|
93 |
-
|
94 |
-
# get the dataset only for keyphrase extraction
|
95 |
-
dataset = load_dataset("midas/cstr", "extraction")
|
96 |
-
|
97 |
-
print("Samples for Keyphrase Extraction")
|
98 |
-
|
99 |
-
# sample from the train split
|
100 |
-
print("Sample from train data split")
|
101 |
-
test_sample = dataset["train"][0]
|
102 |
-
print("Fields in the sample: ", [key for key in test_sample.keys()])
|
103 |
-
print("Tokenized Document: ", test_sample["document"])
|
104 |
-
print("Document BIO Tags: ", test_sample["doc_bio_tags"])
|
105 |
-
print("\n-----------\n")
|
106 |
-
|
107 |
-
# sample from the test split
|
108 |
-
print("Sample from test data split")
|
109 |
-
test_sample = dataset["test"][0]
|
110 |
-
print("Fields in the sample: ", [key for key in test_sample.keys()])
|
111 |
-
print("Tokenized Document: ", test_sample["document"])
|
112 |
-
print("Document BIO Tags: ", test_sample["doc_bio_tags"])
|
113 |
-
print("\n-----------\n")
|
114 |
-
```
|
115 |
-
|
116 |
-
### Keyphrase Generation
|
117 |
-
```python
|
118 |
-
# get the dataset only for keyphrase generation
|
119 |
-
dataset = load_dataset("midas/cstr", "generation")
|
120 |
-
|
121 |
-
print("Samples for Keyphrase Generation")
|
122 |
-
|
123 |
-
# sample from the train split
|
124 |
-
print("Sample from train data split")
|
125 |
-
test_sample = dataset["train"][0]
|
126 |
-
print("Fields in the sample: ", [key for key in test_sample.keys()])
|
127 |
-
print("Tokenized Document: ", test_sample["document"])
|
128 |
-
print("Extractive/present Keyphrases: ", test_sample["extractive_keyphrases"])
|
129 |
-
print("Abstractive/absent Keyphrases: ", test_sample["abstractive_keyphrases"])
|
130 |
-
print("\n-----------\n")
|
131 |
-
|
132 |
-
# sample from the test split
|
133 |
-
print("Sample from test data split")
|
134 |
-
test_sample = dataset["test"][0]
|
135 |
-
print("Fields in the sample: ", [key for key in test_sample.keys()])
|
136 |
-
print("Tokenized Document: ", test_sample["document"])
|
137 |
-
print("Extractive/present Keyphrases: ", test_sample["extractive_keyphrases"])
|
138 |
-
print("Abstractive/absent Keyphrases: ", test_sample["abstractive_keyphrases"])
|
139 |
-
print("\n-----------\n")
|
140 |
-
```
|
141 |
-
|
142 |
-
## Citation Information
|
143 |
-
```
|
144 |
-
@inproceedings{10.1145/313238.313437,
|
145 |
-
author = {Witten, Ian H. and Paynter, Gordon W. and Frank, Eibe and Gutwin, Carl and Nevill-Manning, Craig G.},
|
146 |
-
title = {KEA: Practical Automatic Keyphrase Extraction},
|
147 |
-
year = {1999},
|
148 |
-
isbn = {1581131453},
|
149 |
-
publisher = {Association for Computing Machinery},
|
150 |
-
address = {New York, NY, USA},
|
151 |
-
url = {https://doi.org/10.1145/313238.313437},
|
152 |
-
doi = {10.1145/313238.313437},
|
153 |
-
booktitle = {Proceedings of the Fourth ACM Conference on Digital Libraries},
|
154 |
-
pages = {254–255},
|
155 |
-
numpages = {2},
|
156 |
-
location = {Berkeley, California, USA},
|
157 |
-
series = {DL '99}
|
158 |
-
}
|
159 |
-
```
|
160 |
-
|
161 |
-
## Contributions
|
162 |
-
Thanks to [@debanjanbhucs](https://github.com/debanjanbhucs), [@dibyaaaaax](https://github.com/dibyaaaaax) and [@ad6398](https://github.com/ad6398) for adding this dataset
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
cstr.py
DELETED
@@ -1,158 +0,0 @@
|
|
1 |
-
import json
|
2 |
-
import datasets
|
3 |
-
|
4 |
-
# _SPLIT = ['train', 'test', 'valid']
|
5 |
-
_CITATION = """\
|
6 |
-
@inproceedings{10.1145/313238.313437,
|
7 |
-
author = {Witten, Ian H. and Paynter, Gordon W. and Frank, Eibe and Gutwin, Carl and Nevill-Manning, Craig G.},
|
8 |
-
title = {KEA: Practical Automatic Keyphrase Extraction},
|
9 |
-
year = {1999},
|
10 |
-
isbn = {1581131453},
|
11 |
-
publisher = {Association for Computing Machinery},
|
12 |
-
address = {New York, NY, USA},
|
13 |
-
url = {https://doi.org/10.1145/313238.313437},
|
14 |
-
doi = {10.1145/313238.313437},
|
15 |
-
booktitle = {Proceedings of the Fourth ACM Conference on Digital Libraries},
|
16 |
-
pages = {254–255},
|
17 |
-
numpages = {2},
|
18 |
-
location = {Berkeley, California, USA},
|
19 |
-
series = {DL '99}
|
20 |
-
}
|
21 |
-
"""
|
22 |
-
|
23 |
-
_DESCRIPTION = """\
|
24 |
-
|
25 |
-
"""
|
26 |
-
|
27 |
-
_HOMEPAGE = ""
|
28 |
-
|
29 |
-
# TODO: Add the licence for the dataset here if you can find it
|
30 |
-
_LICENSE = ""
|
31 |
-
|
32 |
-
# TODO: Add link to the official dataset URLs here
|
33 |
-
|
34 |
-
_URLS = {
|
35 |
-
"test": "test.jsonl",
|
36 |
-
"train": "train.jsonl"
|
37 |
-
}
|
38 |
-
|
39 |
-
|
40 |
-
# TODO: Name of the dataset usually match the script name with CamelCase instead of snake_case
|
41 |
-
class CSTR(datasets.GeneratorBasedBuilder):
|
42 |
-
"""TODO: Short description of my dataset."""
|
43 |
-
|
44 |
-
VERSION = datasets.Version("0.0.1")
|
45 |
-
|
46 |
-
BUILDER_CONFIGS = [
|
47 |
-
datasets.BuilderConfig(name="extraction", version=VERSION,
|
48 |
-
description="This part of my dataset covers extraction"),
|
49 |
-
datasets.BuilderConfig(name="generation", version=VERSION,
|
50 |
-
description="This part of my dataset covers generation"),
|
51 |
-
datasets.BuilderConfig(name="raw", version=VERSION, description="This part of my dataset covers the raw data"),
|
52 |
-
]
|
53 |
-
|
54 |
-
DEFAULT_CONFIG_NAME = "extraction"
|
55 |
-
|
56 |
-
def _info(self):
|
57 |
-
if self.config.name == "extraction": # This is the name of the configuration selected in BUILDER_CONFIGS above
|
58 |
-
features = datasets.Features(
|
59 |
-
{
|
60 |
-
"id": datasets.Value("int64"),
|
61 |
-
"document": datasets.features.Sequence(datasets.Value("string")),
|
62 |
-
"doc_bio_tags": datasets.features.Sequence(datasets.Value("string"))
|
63 |
-
|
64 |
-
}
|
65 |
-
)
|
66 |
-
elif self.config.name == "generation":
|
67 |
-
features = datasets.Features(
|
68 |
-
{
|
69 |
-
"id": datasets.Value("int64"),
|
70 |
-
"document": datasets.features.Sequence(datasets.Value("string")),
|
71 |
-
"extractive_keyphrases": datasets.features.Sequence(datasets.Value("string")),
|
72 |
-
"abstractive_keyphrases": datasets.features.Sequence(datasets.Value("string"))
|
73 |
-
|
74 |
-
}
|
75 |
-
)
|
76 |
-
else:
|
77 |
-
features = datasets.Features(
|
78 |
-
{
|
79 |
-
"id": datasets.Value("int64"),
|
80 |
-
"document": datasets.features.Sequence(datasets.Value("string")),
|
81 |
-
"doc_bio_tags": datasets.features.Sequence(datasets.Value("string")),
|
82 |
-
"extractive_keyphrases": datasets.features.Sequence(datasets.Value("string")),
|
83 |
-
"abstractive_keyphrases": datasets.features.Sequence(datasets.Value("string")),
|
84 |
-
"other_metadata": datasets.features.Sequence(
|
85 |
-
{
|
86 |
-
"text": datasets.features.Sequence(datasets.Value("string")),
|
87 |
-
"bio_tags": datasets.features.Sequence(datasets.Value("string"))
|
88 |
-
}
|
89 |
-
)
|
90 |
-
|
91 |
-
}
|
92 |
-
)
|
93 |
-
return datasets.DatasetInfo(
|
94 |
-
# This is the description that will appear on the datasets page.
|
95 |
-
description=_DESCRIPTION,
|
96 |
-
# This defines the different columns of the dataset and their types
|
97 |
-
features=features,
|
98 |
-
homepage=_HOMEPAGE,
|
99 |
-
# License for the dataset if available
|
100 |
-
license=_LICENSE,
|
101 |
-
# Citation for the dataset
|
102 |
-
citation=_CITATION,
|
103 |
-
)
|
104 |
-
|
105 |
-
def _split_generators(self, dl_manager):
|
106 |
-
|
107 |
-
data_dir = dl_manager.download_and_extract(_URLS)
|
108 |
-
return [
|
109 |
-
datasets.SplitGenerator(
|
110 |
-
name=datasets.Split.TRAIN,
|
111 |
-
# These kwargs will be passed to _generate_examples
|
112 |
-
gen_kwargs={
|
113 |
-
"filepath": data_dir['train'],
|
114 |
-
"split": "train",
|
115 |
-
},
|
116 |
-
),
|
117 |
-
datasets.SplitGenerator(
|
118 |
-
name=datasets.Split.TEST,
|
119 |
-
# These kwargs will be passed to _generate_examples
|
120 |
-
gen_kwargs={
|
121 |
-
"filepath": data_dir['test'],
|
122 |
-
"split": "test"
|
123 |
-
},
|
124 |
-
),
|
125 |
-
]
|
126 |
-
|
127 |
-
# method parameters are unpacked from `gen_kwargs` as given in `_split_generators`
|
128 |
-
def _generate_examples(self, filepath, split):
|
129 |
-
with open(filepath, encoding="utf-8") as f:
|
130 |
-
for key, row in enumerate(f):
|
131 |
-
data = json.loads(row)
|
132 |
-
if self.config.name == "extraction":
|
133 |
-
# Yields examples as (key, example) tuples
|
134 |
-
yield key, {
|
135 |
-
"id": data['paper_id'],
|
136 |
-
"document": data["document"],
|
137 |
-
"doc_bio_tags": data.get("doc_bio_tags")
|
138 |
-
}
|
139 |
-
elif self.config.name == "generation":
|
140 |
-
yield key, {
|
141 |
-
"id": data['paper_id'],
|
142 |
-
"document": data["document"],
|
143 |
-
"extractive_keyphrases": data.get("extractive_keyphrases"),
|
144 |
-
"abstractive_keyphrases": data.get("abstractive_keyphrases")
|
145 |
-
}
|
146 |
-
else:
|
147 |
-
yield key, {
|
148 |
-
"id": data['paper_id'],
|
149 |
-
"document": data["document"],
|
150 |
-
"doc_bio_tags": data.get("doc_bio_tags"),
|
151 |
-
"extractive_keyphrases": data.get("extractive_keyphrases"),
|
152 |
-
"abstractive_keyphrases": data.get("abstractive_keyphrases"),
|
153 |
-
"other_metadata": data["other_metadata"]
|
154 |
-
}
|
155 |
-
|
156 |
-
|
157 |
-
|
158 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
train.jsonl → extraction/cstr-test.parquet
RENAMED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:5c4b0b50e0b71ae36b1dda5f3e873988ccf7eb795cfad779daef6f14a84edd80
|
3 |
+
size 14543558
|
test.jsonl → extraction/cstr-train.parquet
RENAMED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:3910100e1ed1e53993aa129929de4453cb737e6d9ab4e9312609aae309b0049b
|
3 |
+
size 2761951
|
generation/cstr-test.parquet
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:6e2f954540fb2bfa0052d57ed492c1e96acd893c73a8deb3e0df62b2624c257a
|
3 |
+
size 14478751
|
generation/cstr-train.parquet
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:0495993d016553b2779a2f315995ed4524744a853149d1e5eebb0799b66aaa3d
|
3 |
+
size 2753094
|
raw/cstr-test.parquet
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:04917f868d012cc408afb9a3c90497314deb5739833c3d5c1e4f7a02a888ee63
|
3 |
+
size 14576955
|
raw/cstr-train.parquet
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:e98a922baebf5d8b8e48266159c13f3eb0c981eb0d057e4edf881bc0815ae5ea
|
3 |
+
size 2774475
|