gpt2-ko

Korean gpt2 model, trained from scratch.

from transformers import pipeline

pipe = pipeline("text-generation", model="mykor/gpt2-ko")
>>> pipe("오늘 점심 뭐먹지?")
[{'generated_text': '오늘 점심 뭐먹지?치킨과 족발 먹으려고 ㅎ난 치킨먹구싶당 ㅎㅎ나 낼 아침에 먹을겡 ㅎ치킨 먹고시퍼 ㅎㅎ난 치킨에닭도리탕..난 닭도리탕~난 치킨먹었어 ㅎ치킨은 족'}]
>>> pipe("애플은 이번 업데이트를 통해")
[{'generated_text': "애플은 이번 업데이트를 통해 안드로이드 플랫폼 내에서 '모바일 카드'를 판매할 예정'이라며 '기존에는 안드로이드 마켓 내에서만 결제가 가능했다.앞으로는 pc를 통해 결제할 수 있을 것'이라고 덧붙였다.한편, sk텔레콤은 이달 초에도 '갤럭시 s8"}]
Downloads last month
27
Safetensors
Model size
137M params
Tensor type
U8
·
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.