Datasets:
Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,104 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
annotations_creators:
|
3 |
+
- crowdsourced
|
4 |
+
language:
|
5 |
+
- ko
|
6 |
+
language_creators:
|
7 |
+
- crowdsourced
|
8 |
+
license:
|
9 |
+
- cc-by-4.0
|
10 |
+
multilinguality:
|
11 |
+
- monolingual
|
12 |
+
paperswithcode_id: imagenet
|
13 |
+
pretty_name: 'laion2b multi korean subset with image '
|
14 |
+
size_categories:
|
15 |
+
- 1M<n<10M
|
16 |
+
source_datasets:
|
17 |
+
- extended|laion/laion2B-multi
|
18 |
+
tags: []
|
19 |
+
task_categories:
|
20 |
+
- feature-extraction
|
21 |
+
task_ids: []
|
22 |
+
---
|
23 |
+
|
24 |
+
# laion2b_multi_korean_subset_with_image
|
25 |
+
|
26 |
+
## Dataset Description
|
27 |
+
- **Download Size** 342 GB
|
28 |
+
|
29 |
+
img2dataset을 통해 다운로드에 성공한 [Bingsu/laion2B-multi-korean-subset](https://huggingface.co/datasets/Bingsu/laion2B-multi-korean-subset) 이미지를 정리한 데이터셋입니다.
|
30 |
+
|
31 |
+
이미지는 950만장 ~ 1000만장 정도입니다. 메타데이터 생성에 실패한 tar파일이 있어 정확한 수치 확인이 되지 않았습니다.
|
32 |
+
|
33 |
+
이미지는 짧은 쪽 길이가 256이 되도록 리사이즈 되었으며, 품질 100인 webp파일로 다운로드 되었습니다.
|
34 |
+
|
35 |
+
## Usage
|
36 |
+
|
37 |
+
### 1. datasets
|
38 |
+
|
39 |
+
```python
|
40 |
+
>>> from datasets import load_dataset
|
41 |
+
|
42 |
+
>>> dataset = load_dataset("Bingsu/laion2b_multi_korean_subset_with_image", streaming=True, split="train")
|
43 |
+
|
44 |
+
>>> dataset.features
|
45 |
+
{'image': Image(decode=True, id=None),
|
46 |
+
'text': Value(dtype='string', id=None),
|
47 |
+
'width': Value(dtype='int32', id=None),
|
48 |
+
'height': Value(dtype='int32', id=None)}
|
49 |
+
|
50 |
+
>>> next(iter(dataset))
|
51 |
+
{'image': <PIL.WebPImagePlugin.WebPImageFile image mode=RGB size=256x256>,
|
52 |
+
'text': '소닉기어 에어폰5 휴대용 스테레오 블루투스 헤드폰',
|
53 |
+
'width': 256,
|
54 |
+
'height': 256}
|
55 |
+
```
|
56 |
+
|
57 |
+
### 2. webdataset
|
58 |
+
|
59 |
+
이 데이터셋은 [webdataset](https://github.com/webdataset/webdataset)으로 사용할 수 있도록 구성되어있습니다. 데이터를 다운로드하지 않고 스트리밍으로 처리한다면 1번 방법보다 훨씬 빠릅니다.
|
60 |
+
|
61 |
+
!! 아래 방법은 Windows에서는 에러가 발생합니다.
|
62 |
+
|
63 |
+
```python
|
64 |
+
>>> import webdataset as wds
|
65 |
+
|
66 |
+
>>> url = "https://huggingface.co/datasets/Bingsu/laion2b_multi_korean_subset_9782601/resolve/main/data/{00000..02122}.tar"
|
67 |
+
>>> dataset = wds.WebDataset(url).shuffle(1000).decode("pil").to_tuple("webp", "json")
|
68 |
+
```
|
69 |
+
|
70 |
+
```python
|
71 |
+
>>> next(iter(dataset))
|
72 |
+
...
|
73 |
+
```
|
74 |
+
|
75 |
+
이 글을 작성하는 현재(22-10-18), webp이미지의 자동 디코딩을 지원하지 않고 있기 때문에([PR #215](https://github.com/webdataset/webdataset/pull/215)), 직접 디코딩해야 합니다.
|
76 |
+
|
77 |
+
```python
|
78 |
+
import io
|
79 |
+
from PIL import Image
|
80 |
+
from torch.utils.data import IterableDataset
|
81 |
+
|
82 |
+
class MyDataset(IterableDataset):
|
83 |
+
def __init__(self, dataset):
|
84 |
+
self.dataset = dataset
|
85 |
+
|
86 |
+
def __iter__(self):
|
87 |
+
for img, meta in self.dataset:
|
88 |
+
data = {
|
89 |
+
"image": Image.open(io.BytesIO(img)),
|
90 |
+
"text": meta["caption"],
|
91 |
+
"width": meta["width"],
|
92 |
+
"height": meta["height"],
|
93 |
+
}
|
94 |
+
yield data
|
95 |
+
```
|
96 |
+
|
97 |
+
```python
|
98 |
+
>>> my_dataset = MyDataset(dataset)
|
99 |
+
>>> next(iter(my_dataset))
|
100 |
+
{'image': <PIL.WebPImagePlugin.WebPImageFile image mode=RGB size=455x256>,
|
101 |
+
'text': '마운트존 광유계진공펌프오일 hiren77p 피스톤 타입…',
|
102 |
+
'width': 455,
|
103 |
+
'height': 256}
|
104 |
+
```
|