--- license: gemma language: - ja base_model: - google/gemma-2-9b library_name: transformers --- # Gemma モデル(スペシャルトークン拡張版) ## 概要 Gemmaは、Googleが開発した軽量かつ最先端のオープンモデルファミリーです。このモデルは、Geminiモデルと同じ研究および技術から生まれた英語対応のテキスト生成モデルです。事前学習版と指示調整版の両方のウェイトが公開されています。 このバージョンは、オリジナルのGemmaモデルに以下のスペシャルトークンを追加して拡張したものです: - `<|SYSTEM|>`, ``: システムメッセージの区切り - `<|USER|>`, ``: ユーザー入力の区切り - `<|HINT|>`, ``: ヒント情報の区切り - `<|REASONING|>`, ``: 推論過程の区切り - `<|ASSISTANT|>`, ``: アシスタント応答の区切り ## モデルの特徴 - テキストからテキストを生成するデコーダーオンリーの大規模言語モデル - 質問応答、要約、推論など、様々なテキスト生成タスクに適している - ラップトップ、デスクトップ、または独自のクラウドインフラで展開可能な比較的小規模なサイズ ## スペシャルトークンの使用例 ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("your-model-path") model = AutoModelForCausalLM.from_pretrained("your-model-path") # スペシャルトークンを使用した入力の例 input_text = """<|SYSTEM|>あなたは親切なAIアシスタントです。 <|USER|>機械学習について説明してください。 <|ASSISTANT|>機械学習は...""" input_ids = tokenizer(input_text, return_tensors="pt").to(device) outputs = model.generate(**input_ids, max_new_tokens=256) print(tokenizer.decode(outputs[0])) ``` ## モデルの仕様 - 9Bパラメータ版:8兆トークンで学習 ## 使用方法 ### 基本的な使用方法(Pipeline API) ```python import torch from transformers import pipeline pipe = pipeline( "text-generation", model="google/gemma-2-9b", device="cuda", # Macの場合は "mps" に置き換え torch_dtype=torch.bfloat16 # BF16精度を指定 ) text = "<|SYSTEM|>You are a helpful assistant.<|USER|>Tell me a story." outputs = pipe(text, max_new_tokens=256) response = outputs[0]["generated_text"] print(response) ```