Datasets:

Modalities:
Text
Libraries:
Datasets
parquet-converter commited on
Commit
1756161
•
1 Parent(s): 3fcd680

Update parquet files

Browse files
.gitattributes DELETED
@@ -1,29 +0,0 @@
1
- *.7z filter=lfs diff=lfs merge=lfs -text
2
- *.arrow filter=lfs diff=lfs merge=lfs -text
3
- *.bin filter=lfs diff=lfs merge=lfs -text
4
- *.bin.* filter=lfs diff=lfs merge=lfs -text
5
- *.bz2 filter=lfs diff=lfs merge=lfs -text
6
- *.ftz filter=lfs diff=lfs merge=lfs -text
7
- *.gz filter=lfs diff=lfs merge=lfs -text
8
- *.h5 filter=lfs diff=lfs merge=lfs -text
9
- *.joblib filter=lfs diff=lfs merge=lfs -text
10
- *.lfs.* filter=lfs diff=lfs merge=lfs -text
11
- *.model filter=lfs diff=lfs merge=lfs -text
12
- *.msgpack filter=lfs diff=lfs merge=lfs -text
13
- *.onnx filter=lfs diff=lfs merge=lfs -text
14
- *.ot filter=lfs diff=lfs merge=lfs -text
15
- *.parquet filter=lfs diff=lfs merge=lfs -text
16
- *.pb filter=lfs diff=lfs merge=lfs -text
17
- *.pt filter=lfs diff=lfs merge=lfs -text
18
- *.pth filter=lfs diff=lfs merge=lfs -text
19
- *.rar filter=lfs diff=lfs merge=lfs -text
20
- saved_model/**/* filter=lfs diff=lfs merge=lfs -text
21
- *.tar.* filter=lfs diff=lfs merge=lfs -text
22
- *.tflite filter=lfs diff=lfs merge=lfs -text
23
- *.tgz filter=lfs diff=lfs merge=lfs -text
24
- *.xz filter=lfs diff=lfs merge=lfs -text
25
- *.zip filter=lfs diff=lfs merge=lfs -text
26
- *.zstandard filter=lfs diff=lfs merge=lfs -text
27
- *tfevents* filter=lfs diff=lfs merge=lfs -text
28
- test.jsonl filter=lfs diff=lfs merge=lfs -text
29
- train.jsonl filter=lfs diff=lfs merge=lfs -text
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
README.md DELETED
@@ -1,162 +0,0 @@
1
- ## Dataset Summary
2
-
3
- A dataset for benchmarking keyphrase extraction and generation techniques from english scientific papers. For more details about the dataset please refer the original paper - [https://dl.acm.org/doi/abs/10.1145/313238.313437](https://dl.acm.org/doi/abs/10.1145/313238.313437)
4
-
5
- Original source of the data - []()
6
-
7
-
8
- ## Dataset Structure
9
-
10
-
11
- ### Data Fields
12
-
13
- - **id**: unique identifier of the document.
14
- - **document**: Whitespace separated list of words in the document.
15
- - **doc_bio_tags**: BIO tags for each word in the document. B stands for the beginning of a keyphrase and I stands for inside the keyphrase. O stands for outside the keyphrase and represents the word that isn't a part of the keyphrase at all.
16
- - **extractive_keyphrases**: List of all the present keyphrases.
17
- - **abstractive_keyphrase**: List of all the absent keyphrases.
18
-
19
-
20
- ### Data Splits
21
-
22
- |Split| #datapoints |
23
- |--|--|
24
- | Train | 130 |
25
- | Test | 500 |
26
-
27
- Train
28
-
29
- - Percentage of keyphrases that are named entities: 69.49% (named entities detected using scispacy - en-core-sci-lg model)
30
- - Percentage of keyphrases that are noun phrases: 81.26% (noun phrases detected using spacy en-core-web-lg after removing determiners)
31
-
32
- Test
33
-
34
- - Percentage of keyphrases that are named entities: 70.79% (named entities detected using scispacy - en-core-sci-lg model)
35
- - Percentage of keyphrases that are noun phrases: 82.74% (noun phrases detected using spacy en-core-web-lg after removing determiners)
36
-
37
-
38
- ## Usage
39
-
40
- ### Full Dataset
41
-
42
- ```python
43
- from datasets import load_dataset
44
-
45
- # get entire dataset
46
- dataset = load_dataset("midas/cstr", "raw")
47
-
48
- # sample from the train split
49
- print("Sample from train dataset split")
50
- test_sample = dataset["train"][0]
51
- print("Fields in the sample: ", [key for key in test_sample.keys()])
52
- print("Tokenized Document: ", test_sample["document"])
53
- print("Document BIO Tags: ", test_sample["doc_bio_tags"])
54
- print("Extractive/present Keyphrases: ", test_sample["extractive_keyphrases"])
55
- print("Abstractive/absent Keyphrases: ", test_sample["abstractive_keyphrases"])
56
- print("\n-----------\n")
57
-
58
- # sample from the test split
59
- print("Sample from test dataset split")
60
- test_sample = dataset["test"][0]
61
- print("Fields in the sample: ", [key for key in test_sample.keys()])
62
- print("Tokenized Document: ", test_sample["document"])
63
- print("Document BIO Tags: ", test_sample["doc_bio_tags"])
64
- print("Extractive/present Keyphrases: ", test_sample["extractive_keyphrases"])
65
- print("Abstractive/absent Keyphrases: ", test_sample["abstractive_keyphrases"])
66
- print("\n-----------\n")
67
- ```
68
- **Output**
69
-
70
- ```bash
71
- Sample from training data split
72
- Fields in the sample: ['id', 'document', 'doc_bio_tags', 'extractive_keyphrases', 'abstractive_keyphrases', 'other_metadata']
73
- Tokenized Document: ['Reasoning', 'with', 'Non-Atomic', 'Memories', 'Manhoi', 'Choy', '?', 'and', 'Ambuj', 'K.', 'Singh', '?', 'Department', 'of', 'Computer', 'Science', 'University', 'of', 'California', 'at', 'Santa', 'Barbara', 'Santa', 'Barbara', ',', 'CA', '93106', 'August', '3', ',', '1993', 'Abstract', 'A', 'method', 'for', 'reasoning', 'with', 'non-atomic', 'memory', 'is', 'developed', '.', 'A', 'program', 'using', 'non-atomic', 'memory', 'is', 'transformed', 'into', 'an', 'equivalent', 'one', 'that', 'uses', 'atomic', 'memory', '.', 'A', 'number', 'of', 'non-atomic', 'memories', 'including', 'pipelined', 'RAM', ',', 'causal', 'memory', ',', 'and', 'hybrid', 'consistency', 'are', 'examined', '.', 'The', 'approach', 'is', 'illustrated', 'with', 'some', 'examples', '.', '1', 'Introduction', 'The', 'traditional', 'abstraction', 'of', 'shared', 'memory', 'which', 'supported', 'atomic', 'reads', 'and', 'writes', 'has', 'come', 'under', 'increasing', 'scrutiny', '.', 'Hardware', 'architects', 'seem', 'to', 'agree', 'that', 'atomic', 'memory', 'leads', 'to', 'a', 'large', 'latency', 'that', 'is', 'unacceptable', 'for', 'efficient', 'programming', '.', 'Based', 'on', 'this', 'observation', ',', 'non-atomic', 'abstractions', 'of', 'shared', 'memory', 'have', 'been', 'proposed', 'in', 'the', 'literature', '.', 'These', 'definitions', 'are', 'usually', 'motivated', 'by', 'hardware', 'and', 'their', 'semantics', 'and', 'usefulness', 'from', 'the', 'point', 'of', 'view', 'of', 'a', 'user', 'are', 'far', 'from', 'clear', '.', 'Coupled', 'with', 'the', 'problems', 'of', 'concurrency', 'and', 'non-determinism', ',', 'these', 'definitions', 'have', 'the', 'potential', 'of', 'making', 'the', 'programming', 'of', 'concurrent', 'systems', 'very', 'difficult', '.', 'This', 'paper', 'examines', 'some', 'existing', 'definitions', 'of', 'non-atomic', 'memories', 'and', 'provides', 'a', 'mechanism', 'for', 'reasoning', 'about', 'them', '.', 'Instead', 'of', 'designing', 'a', 'new', 'proof', 'system', 'for', 'each', 'kind', 'of', 'non-atomic', 'memory', ',', 'our', 'approach', 'is', 'to', 'define', 'rules', 'for', 'transforming', 'a', 'program', 'that', 'uses', 'non-atomic', 'memory', 'into', 'an', 'equivalent', 'program', 'that', 'uses', 'atomic', 'memory', '.', 'The', 'transformed', 'program', 'can', 'then', 'be', 'proved', 'using', 'any', 'of', 'the', 'existing', 'proof', 'systems', 'such', 'as', 'Temporal', 'logic', '-LSB-', '15', '-RSB-', 'and', 'Unity', '-LSB-', '6', '-RSB-', '.', 'Besides', 'providing', 'a', 'technique', 'for', 'reasoning', 'about', 'non-atomic', 'memory', ',', 'the', 'approach', 'also', 'provides', 'a', 'clear', 'uniform', 'semantics', 'for', 'the', 'non-atomic', 'memories', '.', 'Traditional', 'approaches', 'toward', 'defining', 'non-atomic', 'memories', 'are', 'based', 'on', 'histories', '.', 'Systemwide', 'execution', 'histories', 'are', 'considered', 'and', 'those', 'that', 'satisfy', 'the', 'specification', 'are', 'isolated', 'by', 'considering', 'interleavings', 'of', 'events', '.', 'It', 'may', 'be', 'difficult', 'for', 'users', 'to', 'understand', 'the', 'semantics', 'of', 'non-atomic', 'operations', 'in', 'such', 'an', 'approach', '.', 'In', 'contrast', ',', 'the', 'technique', 'proposed', 'here', 'is', 'based', 'on', 'the', 'idea', 'of', 'transforming', 'each', 'non-atomic', 'operation', 'as', 'a', 'set', 'of', 'atomic', 'operations', '.', 'The', 'motivation', 'is', 'to', 'show', 'that', 'understanding', 'non-atomic', 'memories', 'is', ',', 'in', 'principle', ',', '?', 'Work', 'supported', 'in', 'part', 'by', 'NSF', 'grant', 'CCR-9008628', '.', 'no', 'harder', 'that', 'understanding', 'atomic', 'memories', '.', 'This', 'approach', 'of', 'transforming', 'a', 'program', 'that', 'uses', 'non-atomic', 'variables', 'into', 'one', 'that', 'uses', 'atomic', 'variables', 'was', 'used', 'earlier', 'by', 'Anderson', 'and', 'Gouda', '-LSB-', '3', '-RSB-', 'to', 'prove', 'the', 'correctness', 'of', 'programs', 'that', 'use', 'safe', 'and', 'regular', 'variables', '-LSB-', '11', '-RSB-', '.', 'The', 'specific', 'abstractions', 'of', 'non-atomic', 'memory', 'that', 'we', 'examine', 'include', 'pipelined', 'RAM', '-LSB-', '12', '-RSB-', ',', 'causal', 'memory', '-LSB-', '2', '-RSB-', ',', 'TSO', 'and', 'PSO', 'memory', 'models', 'of', 'Sparc', '-LSB-', '9', '-RSB-', ',', 'and', 'hybrid', 'consistency', '-LSB-', '5', '-RSB-', '.', 'In', 'each', 'of', 'these', 'cases', ',', 'suitable', 'auxiliary', 'variables', 'are', 'defined', 'in', 'the', 'process', 'of', 'transformation', '.', 'These', 'auxiliary', 'variables', 'may', 'be', 'viewed', 'as', 'an', 'abstract', 'implementation', 'of', 'the', 'corresponding', 'kind', 'of', 'memory', '.', 'The', 'rest', 'of', 'the', 'paper', 'is', 'organized', 'as', 'follows', '.', 'Sections', '2', 'through', '6', 'examine', 'the', 'different', 'kinds', 'of', 'memory', '.', 'In', 'each', 'case', ',', 'rules', 'for', 'transforming', 'each', 'non-atomic', 'read', 'and', 'write', 'are', 'included', '.', 'In', 'some', 'cases', ',', 'the', 'transformations', 'are', 'also', 'illustrated', 'with', 'small', 'examples', '.', 'Section', '7', 'includes', 'a', 'brief', 'discussion', '.', '2', 'Pipelined', 'RAM', 'In', 'this', 'kind', 'of', 'non-atomic', 'memory', 'introduced', 'by', 'Lipton', 'and', 'Sandberg', '-LSB-', '12', '-RSB-', ',', 'every', 'process', 'has', 'its', 'own', 'copy', 'of', 'the', 'shared', 'memory', '.', 'A', 'read', 'operation', 'is', 'performed', 'by', 'reading', 'this', 'local', 'copy', 'and', 'a', 'write', 'operation', 'is', 'performed', 'by', 'updating', 'the', 'local', 'copy', 'and', 'sending', 'the', 'update', 'to', 'all', 'other', 'processes', 'on', 'FIFO', 'channels', '.', 'These', 'updates', 'are', 'then', 'executed', 'asynchronously', 'at', 'the', 'remote', 'processes', '.', 'In', 'order', 'to', 'model', 'this', 'memory', ',', 'we', 'introduce', 'the', 'following', 'auxiliary', 'variables', 'for', 'each', 'shared', 'variable', 'x', 'and', 'each', 'process', 'p', ':', 'ffl', 'xp', ',', 'a', 'local', 'copy', 'of', 'variable', 'x', 'at', 'process', 'p', '.', 'It', 'is', 'initialized', 'to', 'the', 'initial', 'value', 'of', 'x.', 'ffl', 'Xp', ',', 'a', 'set', 'containing', 'the', 'updates', 'performed', 'by', 'remote', 'processes', 'on', 'variable', 'x.', 'Each', 'tuple', 'in', 'Xp', 'consists', 'of', 'three', 'fields', ':', 'the', 'updated', 'value', ',', 'the', 'timestamp', 'of', 'the', 'updating', 'process', ',', 'and', 'the', 'identity', 'of', 'the', 'updating', 'process', '.', 'It', 'is', 'initialized', 'to', 'an', 'empty', 'set', '.', 'ffl', 'tsp', ',', 'a', 'counter', 'that', 'is', 'used', 'for', 'distinguishing', 'updates', 'by', 'process', 'p', '.', 'It', 'is', 'initialized', 'to', '0', '.', 'Each', 'read', 'and', 'write', 'operation', 'of', 'process', 'p', 'is', 'now', 'translated', 'as', 'follows', '.', '1', '.', 'A', 'read', 'statement', 'v', ':', '=', 'x', 'is', 'translated', 'to', 'v', ':', '=', 'xp', ',', 'i.e.', ',', 'the', 'local', 'copy', 'is', 'read', '.', '2', '.', 'A', 'write', 'statement', 'x', ':', '=', 'm', 'is', 'translated', 'to', 'an', 'update', 'of', 'the', 'local', 'copy', 'along', 'with', 'an', 'increment', 'of', 'the', 'local', 'counter', ',', 'followed', 'by', 'a', 'transmittal', 'of', 'the', 'update', 'to', 'all', 'other', 'processes', ':', 'xp', ';', 'tsp', ':', '=', 'm', ';', 'tsp', '+', '1', ';', 'h8q', ':', 'q', '<', '>', 'p', ':', 'Xq', ':', '=', 'Xq', '-LSB-', 'f', '-LRB-', 'm', ';', 'tsp', ';', 'p', '-RRB-', 'gi', '.', '3', '.', 'Finally', ',', 'for', 'each', 'shared', 'variable', 'x', ',', 'we', 'add', 'a', 'process', 'Mp', ';', 'x', 'that', 'services', 'the', 'remote', 'updates', 'for', 'variable', 'x', 'at', 'process', 'p.', 'Process', 'Mp', ';', 'x', 'examines', 'the', 'contents', 'of', 'set', 'Xp', 'and', 'assigns', 'the', 'values', 'existing', 'there', 'to', 'xp', 'in', 'a', 'FIFO', 'order', ':', 'repeat', 'if', 'Xp', '<', '>', 'fg', 'then', 'xp', ';', 'Xp', ':', '=', 'm', ';', 'Xp', '?', 'f', '-LRB-', 'm', ';', 'ts', ';', 'q', '-RRB-', 'g', 'where', 'Min', '-LRB-', 'Xp', ';', '-LRB-', 'm', ';', 'ts', ';', 'q', '-RRB-', '-RRB-', 'forever', 'Predicate', 'Min', '-LRB-', 'S', ';', 't', '-RRB-', 'denotes', 'that', 'tuple', 't', 'is', 'a', 'minimal', 'element', 'in', 'set', 'S', 'in', 'a', 'specified', 'ordering', '.', 'In', 'this', 'case', ',', 'tuple', 't', 'is', 'less', 'than', 'tuple', 't0', 'provided', 'they', 'mention', 'the', 'same']
74
- Document BIO Tags: ['O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O']
75
- Extractive/present Keyphrases: ['concurrency']
76
- Abstractive/absent Keyphrases: ['memory consistency conditions', 'program correctness']
77
-
78
- -----------
79
-
80
- Sample from test data split
81
- Fields in the sample: ['id', 'document', 'doc_bio_tags', 'extractive_keyphrases', 'abstractive_keyphrases', 'other_metadata']
82
- Tokenized Document: ['Dynamic', 'analysis', 'of', 'some', 'Relational', 'Data', 'Bases', 'parameters', 'I', ':', 'Projections', 'Dani?ele', 'GARDY', '?', 'Guy', 'LOUCHARDy', 'January', '1994', 'Abstract', 'We', 'present', 'a', 'dynamic', 'study', 'of', 'a', 'data', 'structure', 'related', 'to', 'relational', 'databases', '.', 'We', 'show', 'that', 'some', 'parameters', 'of', 'relational', 'databases', '-LRB-', 'sizes', 'of', 'projections', '-RRB-', ',', 'related', 'to', 'an', 'occupancy', 'problem', 'in', 'urn', 'models', ',', 'behave', 'asymptotically', 'as', 'gaussian', 'stochastic', 'processes', 'under', 'a', 'sequence', 'of', 'updates', 'and', 'queries', '.', 'As', 'a', 'consequence', ',', 'we', 'analyze', 'the', 'distribution', 'of', 'the', 'maximum', 'size', 'of', 'the', 'projection', '.', '1', 'Introduction', 'We', 'consider', 'dynamic', 'objects', ',', 'obtained', 'by', 'updating', 'and', 'querying', 'a', 'data', 'structure', ',', 'on', 'which', 'we', 'want', 'to', 'study', 'a', 'parameter', ',', 'most', 'often', 'defining', 'some', 'size', '.', 'This', 'parameter', 'defines', 'a', 'random', 'variable', ',', 'and', 'we', 'study', 'its', 'behaviour', 'when', 'the', 'initial', 'object', 'is', 'submitted', 'to', 'a', 'sequence', 'of', 'insertions', ',', 'deletions', 'and', 'queries', ',', 'characterizing', 'it', '-LRB-', 'when', 'possible', '-RRB-', 'as', 'a', 'gaussian', 'stochastic', 'process', '.', 'The', 'dynamic', 'objects', 'are', 'here', 'relations', 'in', 'a', 'relational', 'database', ',', 'and', 'the', 'parameter', 'we', 'want', 'to', 'study', 'is', 'the', 'size', 'of', 'their', 'projection', 'on', 'a', 'set', 'of', 'attributes', '.', 'We', 'gave', 'in', 'a', 'former', 'paper', 'conditions', 'which', 'ensure', 'that', ',', 'in', 'the', 'static', 'case', '-LRB-', 'i.e.', 'at', 'a', 'given', 'time', '-RRB-', ',', 'the', 'size', 'of', 'the', 'projection', 'of', 'a', 'relation', 'follows', 'a', 'normal', 'limiting', 'distribution', '.', 'Our', 'goal', 'here', 'is', 'to', 'study', 'the', 'variation', 'of', 'the', 'size', 'of', 'the', 'projection', 'under', 'a', 'sequence', 'of', 'queries', 'and', 'updates', '.', 'We', 'shall', 'show', 'that', 'it', 'is', 'a', 'gaussian', 'process', ',', 'and', 'analyze', 'its', 'maximum', '.', '?', 'Laboratoire', 'PRISM', ',', 'Universit?e', 'de', 'Versailles', 'Saint-Quentin', ',', '78035', 'Versailles', '-LRB-', 'France', '-RRB-', '.', 'This', 'research', 'was', 'partly', 'supported', 'by', 'ESPRIT', 'III-Basic', 'Research', 'Action', 'ALCOM', 'II', '-LRB-', 'no.', '7141', '-RRB-', ',', 'by', 'the', 'CNRS', 'PRC', 'Math?ematique', '-', 'Informatique', 'and', 'by', 'a', 'cooperation', 'between', 'the', 'CNRS', 'and', 'the', 'FNRS', '.', 'yD?epartement', "d'Informatique", ',', 'Universit?e', 'Libre', 'de', 'Bruxelles', ',', 'Bruxelles', '-LRB-', 'Belgique', '-RRB-', '.', 'This', 'research', 'was', 'partially', 'supported', 'by', 'a', 'cooperation', 'between', 'the', 'FNRS', 'and', 'the', 'CNRS', '.', 'R', 'X', 'Y', 'x0', 'y0', 'x1', 'y1', 'x1', 'y2', 'ssX', '-LRB-', 'R', '-RRB-', 'X', 'x0', 'x1', 'Figure', '1', ':', 'Projection', 'of', 'the', 'relation', 'R', '-LSB-', 'X', ',', 'Y', '-RSB-', 'on', 'the', 'attribute', 'X', 'The', 'paper', 'is', 'organized', 'as', 'follows', '.', 'Section', '2', 'presents', 'the', 'database', 'parameters', 'that', 'we', 'shall', 'study', 'and', 'gives', 'a', 'modelization', 'in', 'terms', 'of', 'urn', 'models', ',', 'then', 'briefly', 'recalls', 'the', 'sequences', 'of', 'operations', 'which', 'may', 'be', 'considered', '.', 'Section', '3', 'gives', 'our', 'main', 'results', '-LRB-', 'characterization', 'of', 'the', 'parameter', 'we', 'study', 'as', 'a', 'gaussian', 'process', 'and', 'distribution', 'of', 'its', 'maximum', '-RRB-', 'and', 'presents', 'an', 'overview', 'of', 'our', 'method', ',', 'with', 'a', 'sketch', 'of', 'the', 'proof', '.', 'Section', '4', 'introduces', 'our', 'notations', ',', 'then', 'Section', '5', 'presents', 'the', 'basic', 'processes', '-LRB-', 'number', 'of', 'tuples', 'in', 'a', 'relation', '-RRB-', 'corresponding', 'to', 'different', 'update', 'models', 'and', 'to', 'several', 'constraints', 'on', 'the', 'initial', 'objects', '-LRB-', 'relations', '-RRB-', '.', 'Sections', '6', 'to', '10', 'are', 'devoted', 'to', 'the', 'detailed', 'proofs', '.', '2', 'Databases', 'and', 'urn', 'models', '2.1', 'Projections', 'and', 'the', 'occupancy', 'problem', 'in', 'urn', 'models', 'We', 'briefly', 'recall', 'here', 'some', 'definitions', 'relative', 'to', 'relational', 'databases', 'and', 'to', 'the', 'modelization', 'of', 'relations', ';', 'we', 'refer', 'the', 'reader', 'to', '-LSB-', '7', '-RSB-', 'for', 'a', 'detailed', 'presentation', '.', 'The', 'basic', 'objects', 'we', 'consider', 'are', 'relations', ',', 'which', 'are', 'sets', 'of', '-LRB-', 'distinct', '-RRB-', 'tuples', '.', 'They', 'can', 'be', 'seen', 'as', 'tables', ':', 'a', 'row', 'represents', 'a', 'tuple', ',', 'and', 'the', 'number', 'of', 'lines', 'is', 'the', 'number', 'of', 'elements', 'of', 'the', 'relation', '-LRB-', 'its', 'size', '-RRB-', ';', 'the', 'columns', 'are', 'called', 'the', 'attributes', '.', 'The', 'projection', 'of', 'a', 'relation', 'on', 'a', 'subset', 'of', 'the', 'set', 'of', 'attributes', 'is', 'a', 'new', 'relation', ',', 'obtained', 'by', 'suppressing', 'the', 'corresponding', 'columns', ',', 'then', 'all', 'the', 'duplicate', 'rows', 'in', 'the', 'resulting', 'table', ':', 'We', 'keep', 'only', 'one', 'instance', 'of', 'each', 'tuple', '.', 'We', 'give', 'in', 'Figure', '1', 'an', 'instance', 'of', 'a', 'relation', 'R', '-LSB-', 'X', ',', 'Y', '-RSB-', 'and', 'of', 'its', 'projection', '-LRB-', 'noted', 'ssX', '-LRB-', 'R', '-RRB-', '-RRB-', 'on', 'the', 'attribute', 'X.', 'For', 'ease', 'of', 'presentation', ',', 'and', 'without', 'loss', 'of', 'generality', ',', 'we', 'shall', 'restrict', 'ourselves', 'to', 'the', 'case', 'of', 'a', 'relation', 'R', 'with', 'two', 'attributes', 'X', 'and', 'Y', ',', 'and', 'of', 'its', 'projection', 'on', 'X', '.', 'We', 'shall', 'use', 'the', 'terms', 'initial', 'relation', 'for', 'the', 'relation', 'R', ',', 'and', 'derived', 'relation', 'for', 'its', 'projection', '.', 'Let', 'd', 'be', 'the', 'number', 'of', 'distinct', 'possible', 'values', 'for', 'the', 'attribute', 'X', ';', 'we', 'assume', 'that', ',', 'although', 'it', 'may', 'become', 'large', ',', 'd', 'is', 'finite', '.', 'The', 'projection', 'of', 'the', 'relation', 'R', 'can', 'be', 'modelized', 'with', 'urns', 'and', 'balls', ',', 'according', 'to', 'a', 'well-known', 'occupancy', 'model', ',', 'as', 'follows', '.', 'We', 'consider', 'a', 'sequence', 'of', 'd', 'urns', ',', 'each', 'urn', 'being', 'labelled', 'with', 'a', 'distinct', 'value', 'of', 'the', 'attribute', 'X.', 'To', 'each', 'tuple', 'of', 'the', 'relation', 'R', ',', 'we', 'associate', 'a', 'ball', 'labelled', 'by', 'the', 'value', 'of', 'the', 'tuple', 'on', 'the', 'column', 'X', ';', 'this', 'ball', 'falls', 'into', 'the', 'corresponding', 'urn', '.', 'An', 'equivalent', 'way', 'of', 'seeing', 'this', 'phenomenon', 'is', 'to', 'consider', 'instead', 'that', 'we', 'have', 'a', 'finite', 'supply', 'of', 'balls', ',', 'and', 'that', 'we', 'allocate', 'them', 'at', 'random', 'among', 'the', 'd', 'urns', ',', 'each', 'trial', 'being', 'independent', 'of', 'the', 'others', '.', 'Each', 'ball', 'then', 'receives', 'the', 'label', 'of', 'the', 'urn', 'it', 'falls', 'into', '.', 'After', 'coupling', 'all', 'the', 'tuples', 'of', 'the', 'initial', 'relation', 'R', 'with', 'urns', ',', 'some', 'urns', 'are', 'empty', 'and', 'some', 'contain', 'at', 'least', 'one', 'ball', '.', 'The', 'number', 'of', 'urns', 'with', 'at', 'least', 'one', 'ball', 'is', 'exactly', 'the', 'number', 'of', 'tuples', 'in', 'the', 'projection', 'of', 'the', 'relation', 'R.', 'If', ',', 'instead', 'of', 'the', 'number', 'of', 'urns', 'with', 'at', 'least', 'one', 'ball', ',', 'we', 'consider', 'the', 'number', 'of', 'empty', 'urns', ',', 'and', 'if', 'we', 'assume', 'that', 'each', 'urn', 'can', 'receive', 'an', 'unbounded', 'number', 'of', 'balls', ',', 'then', 'we', 'have', 'the', 'classical', 'occupancy', 'problem', 'presented', 'for', 'example', 'in', '-LSB-', '8', '-RSB-', '.', 'Assuming', 'that', 'the', 'urn', 'size', 'is', 'infinite', 'corresponds', ',', 'in', 'terms', 'of', 'relational', 'databases', ',', 'to', 'a']
83
- Document BIO Tags: ['O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'B', 'I', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O']
84
- Extractive/present Keyphrases: ['derived relation', 'gaussian process', 'occupancy problem', 'relational database', 'urn model']
85
- Abstractive/absent Keyphrases: []
86
-
87
- -----------
88
- ```
89
-
90
- ### Keyphrase Extraction
91
- ```python
92
- from datasets import load_dataset
93
-
94
- # get the dataset only for keyphrase extraction
95
- dataset = load_dataset("midas/cstr", "extraction")
96
-
97
- print("Samples for Keyphrase Extraction")
98
-
99
- # sample from the train split
100
- print("Sample from train data split")
101
- test_sample = dataset["train"][0]
102
- print("Fields in the sample: ", [key for key in test_sample.keys()])
103
- print("Tokenized Document: ", test_sample["document"])
104
- print("Document BIO Tags: ", test_sample["doc_bio_tags"])
105
- print("\n-----------\n")
106
-
107
- # sample from the test split
108
- print("Sample from test data split")
109
- test_sample = dataset["test"][0]
110
- print("Fields in the sample: ", [key for key in test_sample.keys()])
111
- print("Tokenized Document: ", test_sample["document"])
112
- print("Document BIO Tags: ", test_sample["doc_bio_tags"])
113
- print("\n-----------\n")
114
- ```
115
-
116
- ### Keyphrase Generation
117
- ```python
118
- # get the dataset only for keyphrase generation
119
- dataset = load_dataset("midas/cstr", "generation")
120
-
121
- print("Samples for Keyphrase Generation")
122
-
123
- # sample from the train split
124
- print("Sample from train data split")
125
- test_sample = dataset["train"][0]
126
- print("Fields in the sample: ", [key for key in test_sample.keys()])
127
- print("Tokenized Document: ", test_sample["document"])
128
- print("Extractive/present Keyphrases: ", test_sample["extractive_keyphrases"])
129
- print("Abstractive/absent Keyphrases: ", test_sample["abstractive_keyphrases"])
130
- print("\n-----------\n")
131
-
132
- # sample from the test split
133
- print("Sample from test data split")
134
- test_sample = dataset["test"][0]
135
- print("Fields in the sample: ", [key for key in test_sample.keys()])
136
- print("Tokenized Document: ", test_sample["document"])
137
- print("Extractive/present Keyphrases: ", test_sample["extractive_keyphrases"])
138
- print("Abstractive/absent Keyphrases: ", test_sample["abstractive_keyphrases"])
139
- print("\n-----------\n")
140
- ```
141
-
142
- ## Citation Information
143
- ```
144
- @inproceedings{10.1145/313238.313437,
145
- author = {Witten, Ian H. and Paynter, Gordon W. and Frank, Eibe and Gutwin, Carl and Nevill-Manning, Craig G.},
146
- title = {KEA: Practical Automatic Keyphrase Extraction},
147
- year = {1999},
148
- isbn = {1581131453},
149
- publisher = {Association for Computing Machinery},
150
- address = {New York, NY, USA},
151
- url = {https://doi.org/10.1145/313238.313437},
152
- doi = {10.1145/313238.313437},
153
- booktitle = {Proceedings of the Fourth ACM Conference on Digital Libraries},
154
- pages = {254–255},
155
- numpages = {2},
156
- location = {Berkeley, California, USA},
157
- series = {DL '99}
158
- }
159
- ```
160
-
161
- ## Contributions
162
- Thanks to [@debanjanbhucs](https://github.com/debanjanbhucs), [@dibyaaaaax](https://github.com/dibyaaaaax) and [@ad6398](https://github.com/ad6398) for adding this dataset
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
cstr.py DELETED
@@ -1,158 +0,0 @@
1
- import json
2
- import datasets
3
-
4
- # _SPLIT = ['train', 'test', 'valid']
5
- _CITATION = """\
6
- @inproceedings{10.1145/313238.313437,
7
- author = {Witten, Ian H. and Paynter, Gordon W. and Frank, Eibe and Gutwin, Carl and Nevill-Manning, Craig G.},
8
- title = {KEA: Practical Automatic Keyphrase Extraction},
9
- year = {1999},
10
- isbn = {1581131453},
11
- publisher = {Association for Computing Machinery},
12
- address = {New York, NY, USA},
13
- url = {https://doi.org/10.1145/313238.313437},
14
- doi = {10.1145/313238.313437},
15
- booktitle = {Proceedings of the Fourth ACM Conference on Digital Libraries},
16
- pages = {254–255},
17
- numpages = {2},
18
- location = {Berkeley, California, USA},
19
- series = {DL '99}
20
- }
21
- """
22
-
23
- _DESCRIPTION = """\
24
-
25
- """
26
-
27
- _HOMEPAGE = ""
28
-
29
- # TODO: Add the licence for the dataset here if you can find it
30
- _LICENSE = ""
31
-
32
- # TODO: Add link to the official dataset URLs here
33
-
34
- _URLS = {
35
- "test": "test.jsonl",
36
- "train": "train.jsonl"
37
- }
38
-
39
-
40
- # TODO: Name of the dataset usually match the script name with CamelCase instead of snake_case
41
- class CSTR(datasets.GeneratorBasedBuilder):
42
- """TODO: Short description of my dataset."""
43
-
44
- VERSION = datasets.Version("0.0.1")
45
-
46
- BUILDER_CONFIGS = [
47
- datasets.BuilderConfig(name="extraction", version=VERSION,
48
- description="This part of my dataset covers extraction"),
49
- datasets.BuilderConfig(name="generation", version=VERSION,
50
- description="This part of my dataset covers generation"),
51
- datasets.BuilderConfig(name="raw", version=VERSION, description="This part of my dataset covers the raw data"),
52
- ]
53
-
54
- DEFAULT_CONFIG_NAME = "extraction"
55
-
56
- def _info(self):
57
- if self.config.name == "extraction": # This is the name of the configuration selected in BUILDER_CONFIGS above
58
- features = datasets.Features(
59
- {
60
- "id": datasets.Value("int64"),
61
- "document": datasets.features.Sequence(datasets.Value("string")),
62
- "doc_bio_tags": datasets.features.Sequence(datasets.Value("string"))
63
-
64
- }
65
- )
66
- elif self.config.name == "generation":
67
- features = datasets.Features(
68
- {
69
- "id": datasets.Value("int64"),
70
- "document": datasets.features.Sequence(datasets.Value("string")),
71
- "extractive_keyphrases": datasets.features.Sequence(datasets.Value("string")),
72
- "abstractive_keyphrases": datasets.features.Sequence(datasets.Value("string"))
73
-
74
- }
75
- )
76
- else:
77
- features = datasets.Features(
78
- {
79
- "id": datasets.Value("int64"),
80
- "document": datasets.features.Sequence(datasets.Value("string")),
81
- "doc_bio_tags": datasets.features.Sequence(datasets.Value("string")),
82
- "extractive_keyphrases": datasets.features.Sequence(datasets.Value("string")),
83
- "abstractive_keyphrases": datasets.features.Sequence(datasets.Value("string")),
84
- "other_metadata": datasets.features.Sequence(
85
- {
86
- "text": datasets.features.Sequence(datasets.Value("string")),
87
- "bio_tags": datasets.features.Sequence(datasets.Value("string"))
88
- }
89
- )
90
-
91
- }
92
- )
93
- return datasets.DatasetInfo(
94
- # This is the description that will appear on the datasets page.
95
- description=_DESCRIPTION,
96
- # This defines the different columns of the dataset and their types
97
- features=features,
98
- homepage=_HOMEPAGE,
99
- # License for the dataset if available
100
- license=_LICENSE,
101
- # Citation for the dataset
102
- citation=_CITATION,
103
- )
104
-
105
- def _split_generators(self, dl_manager):
106
-
107
- data_dir = dl_manager.download_and_extract(_URLS)
108
- return [
109
- datasets.SplitGenerator(
110
- name=datasets.Split.TRAIN,
111
- # These kwargs will be passed to _generate_examples
112
- gen_kwargs={
113
- "filepath": data_dir['train'],
114
- "split": "train",
115
- },
116
- ),
117
- datasets.SplitGenerator(
118
- name=datasets.Split.TEST,
119
- # These kwargs will be passed to _generate_examples
120
- gen_kwargs={
121
- "filepath": data_dir['test'],
122
- "split": "test"
123
- },
124
- ),
125
- ]
126
-
127
- # method parameters are unpacked from `gen_kwargs` as given in `_split_generators`
128
- def _generate_examples(self, filepath, split):
129
- with open(filepath, encoding="utf-8") as f:
130
- for key, row in enumerate(f):
131
- data = json.loads(row)
132
- if self.config.name == "extraction":
133
- # Yields examples as (key, example) tuples
134
- yield key, {
135
- "id": data['paper_id'],
136
- "document": data["document"],
137
- "doc_bio_tags": data.get("doc_bio_tags")
138
- }
139
- elif self.config.name == "generation":
140
- yield key, {
141
- "id": data['paper_id'],
142
- "document": data["document"],
143
- "extractive_keyphrases": data.get("extractive_keyphrases"),
144
- "abstractive_keyphrases": data.get("abstractive_keyphrases")
145
- }
146
- else:
147
- yield key, {
148
- "id": data['paper_id'],
149
- "document": data["document"],
150
- "doc_bio_tags": data.get("doc_bio_tags"),
151
- "extractive_keyphrases": data.get("extractive_keyphrases"),
152
- "abstractive_keyphrases": data.get("abstractive_keyphrases"),
153
- "other_metadata": data["other_metadata"]
154
- }
155
-
156
-
157
-
158
-
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
train.jsonl → extraction/cstr-test.parquet RENAMED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:6171de0e7ef05a9264608d12514439def5cb44257ea6de4b6aa249c1e9c10874
3
- size 19084382
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5c4b0b50e0b71ae36b1dda5f3e873988ccf7eb795cfad779daef6f14a84edd80
3
+ size 14543558
test.jsonl → extraction/cstr-train.parquet RENAMED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:5bdbf9c08aab2cb7e875b408550179446dcbe4874ff42ec6564dc36ee660ee73
3
- size 76044077
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:3910100e1ed1e53993aa129929de4453cb737e6d9ab4e9312609aae309b0049b
3
+ size 2761951
generation/cstr-test.parquet ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6e2f954540fb2bfa0052d57ed492c1e96acd893c73a8deb3e0df62b2624c257a
3
+ size 14478751
generation/cstr-train.parquet ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0495993d016553b2779a2f315995ed4524744a853149d1e5eebb0799b66aaa3d
3
+ size 2753094
raw/cstr-test.parquet ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:04917f868d012cc408afb9a3c90497314deb5739833c3d5c1e4f7a02a888ee63
3
+ size 14576955
raw/cstr-train.parquet ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e98a922baebf5d8b8e48266159c13f3eb0c981eb0d057e4edf881bc0815ae5ea
3
+ size 2774475