Update README.md
Browse files
README.md
CHANGED
@@ -7,9 +7,101 @@ library_name: transformers
|
|
7 |
tags:
|
8 |
- mergekit
|
9 |
- merge
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
10 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
11 |
---
|
12 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
13 |
|
14 |
This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit).
|
15 |
|
@@ -43,4 +135,4 @@ models:
|
|
43 |
merge_method: dare_ties
|
44 |
base_model: meta-llama/Meta-Llama-3-8B
|
45 |
dtype: bfloat16
|
46 |
-
```
|
|
|
7 |
tags:
|
8 |
- mergekit
|
9 |
- merge
|
10 |
+
license: other
|
11 |
+
license_name: llama3
|
12 |
+
---
|
13 |
+
The original paper author claims density should be around 0.2~0.3, but in reality high number gets some better result. You should try other params for better result than this!
|
14 |
+
|
15 |
+
```python
|
16 |
+
messages = [
|
17 |
+
{"role": "system", "content": "μΉμ ν μ±λ΄μΌλ‘μ μλλ°©μ μμ²μ μ΅λν μμΈνκ³ μΉμ νκ² λ΅νμ. λͺ¨λ λλ΅μ νκ΅μ΄(Korean)μΌλ‘ λλ΅ν΄μ€."},
|
18 |
+
{"role": "user", "content": "νΌλ³΄λμΉ μμ΄μ΄ λμΌ? κ·Έλ¦¬κ³ νΌλ³΄λμΉ μμ΄μ λν΄ νμ΄μ¬ μ½λλ₯Ό μ§μ€λ³Όλ?"},
|
19 |
+
]
|
20 |
+
νΌλ³΄λμΉ μμ΄μ μνμμ κ°μ₯ μ λͺ
ν μμ΄ μ€ νλμ
λλ€. νΌλ³΄λμΉ μμ΄μ λ€μκ³Ό κ°μ κ·μΉμΌλ‘ μμ±λ©λλ€.
|
21 |
+
|
22 |
+
1. 첫 λ²μ§Έ μλ 0, λ λ²μ§Έ μλ 1
|
23 |
+
2. μ΄νμ μλ μ΄μ λ μμ ν©μΌλ‘ κ³μ°
|
24 |
+
|
25 |
+
μλ₯Ό λ€μ΄, νΌλ³΄λμΉ μμ΄μ 첫 10κ° μλ λ€μκ³Ό κ°μ΅λλ€.
|
26 |
+
|
27 |
+
0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55,...
|
28 |
+
|
29 |
+
μ΄ μμ΄μ λ§€μ° λΉ λ₯΄κ² 컀μ§κΈ° λλ¬Έμ, νΌλ³΄λμΉ μμ΄μ κ³μ°νλ λ°λ μΌλ°μ μΌλ‘ μ§μ ν¨μλ₯Ό μ¬μ©ν©λλ€.
|
30 |
+
|
31 |
+
νμ΄μ¬ μ½λλ₯Ό μμ±νλ©΄ λ€μκ³Ό κ°μ΅λλ€.
|
32 |
|
33 |
+
`(ν¬λ§·μ΄ κΉ¨μ Έμ..π€)``
|
34 |
+
def fibonacci(n):
|
35 |
+
if n <= 1:
|
36 |
+
return n
|
37 |
+
else:
|
38 |
+
return fibonacci(n-1) + fibonacci(n-2)
|
39 |
+
|
40 |
+
for i in range(10):
|
41 |
+
print(fibonacci(i))
|
42 |
+
`π€``
|
43 |
+
|
44 |
+
μ΄ μ½λλ νΌλ³΄λμΉ μμ΄μ 첫 10κ° μλ₯Ό κ³μ°ν©λλ€. κ²°κ³Όλ λ€μκ³Ό κ°μ΅λλ€.
|
45 |
+
|
46 |
+
0
|
47 |
+
1
|
48 |
+
1
|
49 |
+
2
|
50 |
+
3
|
51 |
+
5
|
52 |
+
8
|
53 |
+
13
|
54 |
+
21
|
55 |
+
```
|
56 |
+
|
57 |
+
```python
|
58 |
+
messages = [
|
59 |
+
{"role": "system", "content": "μΉμ ν μ±λ΄μΌλ‘μ μλλ°©μ μμ²μ μ΅λν μμΈνκ³ μΉμ νκ² λ΅νμ. λͺ¨λ λλ΅μ νκ΅μ΄(Korean)μΌλ‘ λλ΅ν΄μ€."},
|
60 |
+
{"role": "user", "content": "νκ΅μ μ ν νλ²μ λν΄μ μμΈν μ€λͺ
ν΄μ£ΌμΈμ."},
|
61 |
+
]
|
62 |
---
|
63 |
+
νκ΅μ μ ν νλ²μ 1948λ
7μ 17μΌ μ νκ΅νμμ μκ²°νμ¬ 1948λ
7μ 27μΌ κ³΅ν¬λ λνλ―Όκ΅ νλ²μ μ΄μμ
λλ€. μ ν νλ²μ λνλ―Όκ΅μ νλ²μ κΈ°λ³Έμ§μλ₯Ό κ·μ νλ λ¬Έμλ‘, λνλ―Όκ΅μ κ΅νΈ, μν , κ΅λ―Ό, κ΅κ°μ νν, μ λΆμ μ‘°μ§, κ΅λ―Όμ κΆλ¦¬μ μ무, λ²λ₯ μ μ μ λ±μ λν΄ κ·μ νκ³ μμ΅λλ€. μ ν νλ²μ 1948λ
7μ 17μΌ μ νκ΅νμμ μκ²°λμ΄ 1948λ
7μ 27μΌ κ³΅ν¬λ μ΄ν 1952λ
12μ 5μΌλΆν° 1962λ
12μ 5μΌκΉμ§ μ μ©λμμ΅λλ€.
|
64 |
+
|
65 |
+
μ ν νλ²μ μ£Όμ λ΄μ©μ λ€μκ³Ό κ°μ΅λλ€.
|
66 |
+
|
67 |
+
1. κ΅νΈ: λνλ―Όκ΅
|
68 |
+
2. μν : λνλ―Όκ΅μ μν λ 38λμ μ΄λΆκ³Ό μ΄λ¨μΌλ‘ λλμ΄μ Έ μμΌλ©°, 38λμ μ΄λΆμ μν λ λνλ―Όκ΅μ μν λ‘ μΈμ νκ³ μμ΅λλ€.
|
69 |
+
3. κ΅λ―Ό: λνλ―Όκ΅μ κ΅λ―Όμ λͺ¨λ μ¬λμΌλ‘, κ΅μ μ κ°μ§ μ¬λκ³Ό κ΅μ μ κ°μ§ μ¬λμ νμμΌλ‘ ꡬμ±λ©λλ€.
|
70 |
+
4. κ΅κ°μ νν: λνλ―Όκ΅μ 민주곡νκ΅μΌλ‘, λν΅λ Ήμ΄ κ΅κ°μ μλ°μΌλ‘μ ν΅μΉν©λλ€.
|
71 |
+
5. μ λΆμ μ‘°μ§: λν΅λ Ή, κ΅λ¬΄μ΄λ¦¬, κ΅λ¬΄μμ λ±μΌλ‘ ꡬμ±λλ μ λΆλ₯Ό λκ³ μμ΅λλ€.
|
72 |
+
6. κ΅λ―Όμ κΆλ¦¬μ μ무: λνλ―Όκ΅μ κ΅λ―Όμ νλ±ν κΆλ¦¬λ₯Ό κ°μ§λ©°, κ΅μ , μΈκΆ, μ¬μ°κΆ, ννμ μμ λ± κΈ°λ³Έμ κΆλ¦¬λ₯Ό 보μ₯λ°μ΅λλ€.
|
73 |
+
7. λ²λ₯ μ μ μ : λνλ―Όκ΅μ λ²λ₯ μ κ΅νμμ μ μ νκ³ , λν΅λ Ήμ΄ 곡ν¬ν©λλ€.
|
74 |
+
|
75 |
+
μ΄μ κ°μ μ ν νλ²μ λνλ―Όκ΅μ νλ²μ κΈ°λ³Έμ§μλ₯Ό κ·μ νλ λ¬Έμλ‘, λνλ―Όκ΅μ κ΅νΈ, μν , κ΅λ―Ό, κ΅κ°μ νν, μ λΆμ μ‘°μ§, κ΅λ―Όμ κΆλ¦¬μ μ무, λ²λ₯ μ μ μ λ±μ λν΄ κ·μ νκ³ μμ΅λλ€.
|
76 |
+
```
|
77 |
+
|
78 |
+
```python
|
79 |
+
messages = [
|
80 |
+
{"role": "system", "content": "μΉμ ν μ±λ΄μΌλ‘μ μλλ°©μ μμ²μ μ΅λν μμΈνκ³ μΉμ νκ² λ΅νμ. λͺ¨λ λλ΅μ νκ΅μ΄(Korean)μΌλ‘ λλ΅ν΄μ€."},
|
81 |
+
{"role": "user", "content": "μΈμ’
λμμ μ§νμ λ§₯λΆ λμ§ μ¬κ±΄μ λν΄μ μκ³ μμ΄?"},
|
82 |
+
]
|
83 |
+
--- Repetitive results, but I really like this output tho
|
84 |
+
λ€, μΈμ’
λμμ΄ μ§νμ μμ λ§₯λΆμ λμ‘λ€λ μ΄μΌκΈ°λ μ¬μ€μ΄ μλλλ€. μ΄ μ΄μΌκΈ°λ μΈμ’
λμμ΄ νλ―Όμ μ μ°½μ λΉμμ μΌνλ‘, λΉμμ νμλ€μ΄ νλ―Όμ μμ μ°½μ μ λ°λνλ μ견μ λ΄μΈμ μΈμ’
λμμκ² νμλ₯Ό νμ, μΈμ’
λμμ΄ κ·Έλ€μ μ§μ±
νλ©΄μ νλ―Όμ μ μ°½μ λ₯Ό κ°μ‘°ν μΌνλ‘ μ ν΄μ§λλ€. νμ§λ§ μ΄ μΌνλ μ€μ λ‘ μΌμ΄λ μΌμ μλλ©°, νλ―Όμ μ μ°½μ μ λ°λνλ νμλ€μ μ€μ λ‘ μμμΌλ©°, μΈμ’
λμλ νλ―Όμ μ μ°½μ λ₯Ό κ°μ‘°ν μ μ μμ΅λλ€. μ΄ μ΄μΌκΈ°λ νλμ λ§λ€μ΄μ§ κ²μΌλ‘ μΆμ λ©λλ€.
|
85 |
+
|
86 |
+
μΈμ’
λμμ νλ―Όμ μ μ°½μ μ λν΄ λ§€μ° μ΄μλ₯Ό λ΄λ³΄μκ³ , νλ―Όμ μμ΄ μ°½μ λκΈ° μ μλ νκΈμ μ¬μ©νμ§ μμμ΅λλ€. νλ―Όμ μμ΄ μ°½μ λ νμλ νλ―Όμ μμ κΈ°λ°ν νκΈμ μ¬μ©νμ΅λλ€. νλ―Όμ μμ 1443λ
λΆν° 1446λ
κΉμ§ 4λ
λμμ κ±Έμ³ μ°½μ λμμ΅λλ€. μ΄ μκΈ°μ μΈμ’
λμμ νλ―ΌοΏ½οΏ½οΏ½μμ μ°½μ μ λ§€μ° κ΄μ¬μ κ°μ§κ³ μμμΌλ©°, νλ―Όμ μμ μ°½μ λ₯Ό μν΄ νμλ€μ λΆλ¬ λͺ¨μ νλ―Όμ μμ μ°½μ μ μ°Έμ¬νλλ‘ νμ΅λλ€. νλ―Όμ μμ΄ μ°½μ λ νμλ νλ―Όμ μμ κΈ°λ°ν νκΈμ μ¬μ©νκ³ , νκΈμ μ¬μ©νλ κ²μ μ₯λ €νμ΅λλ€.
|
87 |
+
|
88 |
+
μΈμ’
λμμ νλ―Όμ μμ μ°½μ λ₯Ό ν΅ν΄ νκΈμ μ¬μ©νκ² λλ©΄, λͺ¨λ μ¬λλ€μ΄ μ½κ² μ½κ³ μ°λ κΈμ μ¬μ©ν μ μκ² λκ³ , μ΄λ λλΌμ λ°μ μ μν΄ λ§€μ° μ€μν μΌμ΄λΌκ³ μκ°νμ΅λλ€. λν, νλ―Όμ μμ μ°½μ λ₯Ό ν΅ν΄ νκΈμ μ¬μ©νκ² λλ©΄, λλΌμ ν΅μΌμ μν΄ λ§€μ° μ€μν μΌμ΄λΌκ³ μκ°νμ΅λλ€. μ΄μ λ°λΌ μΈμ’
λμμ νλ―Όμ μμ μ°½μ μ λ§μ λ
Έλ ₯μ κΈ°μΈμμ΅λλ€.
|
89 |
+
|
90 |
+
μΈμ’
λμμ΄ νλ―Όμ μμ μ°½μ μ κ΄μ¬μ κ°μ‘λ€λ κ²μ μμ¬μ μΌλ‘ νμΈν μ μμ΅λλ€. νμ§λ§ μΈμ’
λμ
|
91 |
+
```
|
92 |
+
|
93 |
+
```python
|
94 |
+
messages = [
|
95 |
+
{"role": "system", "content": "μΉμ ν μ±λ΄μΌλ‘μ μλλ°©μ μμ²μ μ΅λν μμΈνκ³ μΉμ νκ² λ΅νμ. λͺ¨λ λλ΅μ νκ΅μ΄(Korean)μΌλ‘ λλ΅ν΄μ€."},
|
96 |
+
{"role": "user", "content": "λλ μ€λ μ¬κ³Ό 5κ°λ₯Ό κ°κ³ μμ΄. κ·Έλ¦¬κ³ μ΄μ λλ μ¬κ³Ό 2κ°λ₯Ό λ¨Ήμμ§. λ΄κ° μ§κΈ κ°μ§ μ¬κ³Όλ λͺ κ°μ§?"},
|
97 |
+
]
|
98 |
+
---
|
99 |
+
λ€, μ€λ μ¬κ³Ό 5κ° κ°μ§κ³ μκ³ μ΄μ 2κ° λ¨ΉμμΌλ, μ§κΈ κ°μ§κ³ μλ μ¬κ³Όλ 5κ°μμ 2κ°λ₯Ό λΊ 3κ°μ
λλ€! ππ
|
100 |
+
|
101 |
+
(μ΄ κ²½μ°μλ 5κ°μμ 2κ°λ₯Ό λΊ κ²°κ³ΌμΈ 3κ°κ° μ λ΅μ
λλ€.)
|
102 |
+
```
|
103 |
+
|
104 |
+
# Llama-3-Ko-8B-dare-ties
|
105 |
|
106 |
This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit).
|
107 |
|
|
|
135 |
merge_method: dare_ties
|
136 |
base_model: meta-llama/Meta-Llama-3-8B
|
137 |
dtype: bfloat16
|
138 |
+
```
|