KKFurudate
commited on
Update README.md
Browse files
README.md
CHANGED
@@ -20,7 +20,7 @@ datasets:
|
|
20 |
- **Finetuned from model :** llm-jp/llm-jp-3-13b
|
21 |
|
22 |
このモデルは日本語タスクに特化し、指示に基づく応答を行うためにファインチューニングされたLLM用アダプタです。
|
23 |
-
`llm-jp/llm-jp-3-13b`をベースモデルとして、ichikara-instructionデータとELYZA-tasks-100
|
24 |
|
25 |
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
|
26 |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
@@ -166,7 +166,7 @@ elyzatasks100:
|
|
166 |
}
|
167 |
|
168 |
## 謝辞
|
169 |
-
|
170 |
|
171 |
運営・講師の皆さま、このような貴重な学びの場を提供していただき、本当にありがとうございました。講義や実践的な課題を通じて、LLMの基礎から応用までを体系的に学ぶ機会をいただきました。
|
172 |
この経験を糧に、さらなる研究・開発に励んでまいります。
|
|
|
20 |
- **Finetuned from model :** llm-jp/llm-jp-3-13b
|
21 |
|
22 |
このモデルは日本語タスクに特化し、指示に基づく応答を行うためにファインチューニングされたLLM用アダプタです。
|
23 |
+
`llm-jp/llm-jp-3-13b`をベースモデルとして、ichikara-instructionデータとELYZA-tasks-100を用いてFine-tuningを行っています。
|
24 |
|
25 |
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
|
26 |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
|
|
166 |
}
|
167 |
|
168 |
## 謝辞
|
169 |
+
本モデルならびにコードは、松尾・岩澤研究室が提供する[「大規模言語モデル Deep Learning 応用講座」(2024)](https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/)の最終課題、およびLLM開発コンペティションの提出物です。
|
170 |
|
171 |
運営・講師の皆さま、このような貴重な学びの場を提供していただき、本当にありがとうございました。講義や実践的な課題を通じて、LLMの基礎から応用までを体系的に学ぶ機会をいただきました。
|
172 |
この経験を糧に、さらなる研究・開発に励んでまいります。
|