Spaces:
Sleeping
Sleeping
✨ docs: README.mdと実装例ガイドを更新
Browse files- 実装例セクションを整理し、見やすくしました。
- Unslothを使った高速ファインチューニングの実装例を詳細に記述しました。
- OllamaとLiteLLMを使った効率的なモデル運用に関する新しい実装例を追加しました。
- 各実装例のノートブックへのリンクを追加しました。
README.md
CHANGED
@@ -64,18 +64,20 @@ license: mit
|
|
64 |
- メモリ使用量の最適化
|
65 |
- 実験結果の可視化
|
66 |
|
67 |
-
|
68 |
## 📚 実装例
|
69 |
|
70 |
本リポジトリには以下の実装例が含まれています:
|
71 |
|
72 |
-
|
73 |
-
|
74 |
-
|
75 |
-
|
76 |
-
|
77 |
|
78 |
-
|
|
|
|
|
|
|
79 |
|
80 |
## 🛠️ 環境構築
|
81 |
|
|
|
64 |
- メモリ使用量の最適化
|
65 |
- 実験結果の可視化
|
66 |
|
|
|
67 |
## 📚 実装例
|
68 |
|
69 |
本リポジトリには以下の実装例が含まれています:
|
70 |
|
71 |
+
### Unslothを使用した高速ファインチューニング
|
72 |
+
- Llama-3.2-1B/3Bモデルの高速ファインチューニング実装
|
73 |
+
- → 詳細は [`Llama_3_2_1B+3B_Conversational_+_2x_faster_finetuning_JP.md`](sandbox/Llama_3_2_1B+3B_Conversational_+_2x_faster_finetuning_JP.md) をご参照ください。
|
74 |
+
- → [マークダウン形式からノートブック形式への変換はこちらを使用してください](https://huggingface.co/spaces/MakiAi/JupytextWebUI)
|
75 |
+
- [📒ノートブックはこちら](https://colab.research.google.com/drive/1AjtWF2vOEwzIoCMmlQfSTYCVgy4Y78Wi?usp=sharing)
|
76 |
|
77 |
+
### OllamaとLiteLLMを使用した効率的なモデル運用
|
78 |
+
- Google Colabでのセットアップと運用ガイド
|
79 |
+
- → 詳細は [`efficient-ollama-colab-setup-with-litellm-guide.md`](sandbox/efficient-ollama-colab-setup-with-litellm-guide.md) をご参照ください。
|
80 |
+
- [📒ノートブックはこちら](https://colab.research.google.com/drive/1buTPds1Go1NbZOLlpG94VG22GyK-F4GW?usp=sharing)
|
81 |
|
82 |
## 🛠️ 環境構築
|
83 |
|