MakiAi commited on
Commit
feedbc6
·
1 Parent(s): effd2b1

✨ docs: README.mdと実装例ガイドを更新

Browse files

- 実装例セクションを整理し、見やすくしました。
- Unslothを使った高速ファインチューニングの実装例を詳細に記述しました。
- OllamaとLiteLLMを使った効率的なモデル運用に関する新しい実装例を追加しました。
- 各実装例のノートブックへのリンクを追加しました。

Files changed (1) hide show
  1. README.md +9 -7
README.md CHANGED
@@ -64,18 +64,20 @@ license: mit
64
  - メモリ使用量の最適化
65
  - 実験結果の可視化
66
 
67
-
68
  ## 📚 実装例
69
 
70
  本リポジトリには以下の実装例が含まれています:
71
 
72
- 1. **Unslothを使用した高速ファインチューニング**
73
- - Llama-3.2-1B/3Bモデルの高速ファインチューニング実装
74
- - → 詳細は [`Llama_3_2_1B+3B_Conversational_+_2x_faster_finetuning_JP.md`](sandbox/Llama_3_2_1B+3B_Conversational_+_2x_faster_finetuning_JP.md) をご参照ください。
75
- - → [マークダウン形式からノートブック形式への変換はこちらを使用してください](https://huggingface.co/spaces/MakiAi/JupytextWebUI)
76
- - [📒ノートブックはこちら](https://colab.research.google.com/drive/1AjtWF2vOEwzIoCMmlQfSTYCVgy4Y78Wi?usp=sharing)
77
 
78
- 2. その他の実装例は随時追加予定
 
 
 
79
 
80
  ## 🛠️ 環境構築
81
 
 
64
  - メモリ使用量の最適化
65
  - 実験結果の可視化
66
 
 
67
  ## 📚 実装例
68
 
69
  本リポジトリには以下の実装例が含まれています:
70
 
71
+ ### Unslothを使用した高速ファインチューニング
72
+ - Llama-3.2-1B/3Bモデルの高速ファインチューニング実装
73
+ - → 詳細は [`Llama_3_2_1B+3B_Conversational_+_2x_faster_finetuning_JP.md`](sandbox/Llama_3_2_1B+3B_Conversational_+_2x_faster_finetuning_JP.md) をご参照ください。
74
+ - → [マークダウン形式からノートブック形式への変換はこちらを使用してください](https://huggingface.co/spaces/MakiAi/JupytextWebUI)
75
+ - [📒ノートブックはこちら](https://colab.research.google.com/drive/1AjtWF2vOEwzIoCMmlQfSTYCVgy4Y78Wi?usp=sharing)
76
 
77
+ ### OllamaとLiteLLMを使用した効率的なモデル運用
78
+ - Google Colabでのセットアップと運用ガイド
79
+ - → 詳細は [`efficient-ollama-colab-setup-with-litellm-guide.md`](sandbox/efficient-ollama-colab-setup-with-litellm-guide.md) をご参照ください。
80
+ - [📒ノートブックはこちら](https://colab.research.google.com/drive/1buTPds1Go1NbZOLlpG94VG22GyK-F4GW?usp=sharing)
81
 
82
  ## 🛠️ 環境構築
83