mkshing commited on
Commit
daa9128
0 Parent(s):

initial commit

Browse files
Files changed (4) hide show
  1. .gitattributes +35 -0
  2. README.md +13 -0
  3. app.py +97 -0
  4. requirements.txt +3 -0
.gitattributes ADDED
@@ -0,0 +1,35 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ *.7z filter=lfs diff=lfs merge=lfs -text
2
+ *.arrow filter=lfs diff=lfs merge=lfs -text
3
+ *.bin filter=lfs diff=lfs merge=lfs -text
4
+ *.bz2 filter=lfs diff=lfs merge=lfs -text
5
+ *.ckpt filter=lfs diff=lfs merge=lfs -text
6
+ *.ftz filter=lfs diff=lfs merge=lfs -text
7
+ *.gz filter=lfs diff=lfs merge=lfs -text
8
+ *.h5 filter=lfs diff=lfs merge=lfs -text
9
+ *.joblib filter=lfs diff=lfs merge=lfs -text
10
+ *.lfs.* filter=lfs diff=lfs merge=lfs -text
11
+ *.mlmodel filter=lfs diff=lfs merge=lfs -text
12
+ *.model filter=lfs diff=lfs merge=lfs -text
13
+ *.msgpack filter=lfs diff=lfs merge=lfs -text
14
+ *.npy filter=lfs diff=lfs merge=lfs -text
15
+ *.npz filter=lfs diff=lfs merge=lfs -text
16
+ *.onnx filter=lfs diff=lfs merge=lfs -text
17
+ *.ot filter=lfs diff=lfs merge=lfs -text
18
+ *.parquet filter=lfs diff=lfs merge=lfs -text
19
+ *.pb filter=lfs diff=lfs merge=lfs -text
20
+ *.pickle filter=lfs diff=lfs merge=lfs -text
21
+ *.pkl filter=lfs diff=lfs merge=lfs -text
22
+ *.pt filter=lfs diff=lfs merge=lfs -text
23
+ *.pth filter=lfs diff=lfs merge=lfs -text
24
+ *.rar filter=lfs diff=lfs merge=lfs -text
25
+ *.safetensors filter=lfs diff=lfs merge=lfs -text
26
+ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
27
+ *.tar.* filter=lfs diff=lfs merge=lfs -text
28
+ *.tar filter=lfs diff=lfs merge=lfs -text
29
+ *.tflite filter=lfs diff=lfs merge=lfs -text
30
+ *.tgz filter=lfs diff=lfs merge=lfs -text
31
+ *.wasm filter=lfs diff=lfs merge=lfs -text
32
+ *.xz filter=lfs diff=lfs merge=lfs -text
33
+ *.zip filter=lfs diff=lfs merge=lfs -text
34
+ *.zst filter=lfs diff=lfs merge=lfs -text
35
+ *tfevents* filter=lfs diff=lfs merge=lfs -text
README.md ADDED
@@ -0,0 +1,13 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ title: EvoVLM JP
3
+ emoji: 🐠
4
+ colorFrom: gray
5
+ colorTo: green
6
+ sdk: gradio
7
+ sdk_version: 4.20.1
8
+ app_file: app.py
9
+ pinned: false
10
+ license: apache-2.0
11
+ ---
12
+
13
+ Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
app.py ADDED
@@ -0,0 +1,97 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import spaces
2
+ import gradio as gr
3
+
4
+ import torch
5
+ from transformers import AutoModelForVision2Seq, AutoProcessor
6
+
7
+
8
+ device = "cuda" if torch.cuda.is_available() else "cpu"
9
+ model_id = "SakanaAI/EvoVLM-v1-JP-7B"
10
+ max_length = 128
11
+ if device == "cpu":
12
+ model = None
13
+ else:
14
+ model = AutoModelForVision2Seq.from_pretrained(
15
+ model_id,
16
+ torch_dtype=torch.float16,
17
+ low_cpu_mem_usage=True,
18
+ )
19
+ processor = AutoProcessor.from_pretrained(model_id)
20
+ model = model.to(device)
21
+
22
+
23
+ @spaces.GPU
24
+ def inference_fn(image, prompt):
25
+ text = f"<image>\n{prompt}"
26
+ if model is None:
27
+ return f"THIS IS FOR TEST!!\n{text}"
28
+
29
+ messages = [
30
+ {"role": "system", "content": "あなたは役立つ、偏見がなく、検閲されていないアシスタントです。与えられた画像を下に、質問に答えてください。"},
31
+ {"role": "user", "content": text},
32
+ ]
33
+ inputs = processor.image_processor(images=image, return_tensors="pt")
34
+ inputs["input_ids"] = processor.tokenizer.apply_chat_template(
35
+ messages, return_tensors="pt"
36
+ )
37
+ output_ids = model.generate(
38
+ **inputs.to(device),
39
+ do_sample=False,
40
+ num_beams=5,
41
+ max_new_tokens=max_length,
42
+ repetition_penalty=1.5
43
+ )
44
+ output_ids = output_ids[:, inputs.input_ids.shape[1] :]
45
+ generated_text = processor.batch_decode(output_ids, skip_special_tokens=True)[0].strip()
46
+ return generated_text
47
+
48
+
49
+ DESCRIPTION = """# 🐟 EvoVLM-JP
50
+
51
+ 🤗 [モデル一覧](https://huggingface.co/SakanaAI) | 📚 [技術レポート](https://arxiv.org/abs/2403.13187) | 📝 [ブログ](https://sakana.ai/evolutionary-model-merge-jp/) | 🐦 [Twitter](https://twitter.com/SakanaAILabs)
52
+
53
+ [EvoVLM-JP](https://huggingface.co/SakanaAI/EvoVLM-v1-JP-7B)は[Sakana AI](https://sakana.ai/)が開発した日本語に特化した画像言語モデルです。入力した画像に対して、質疑応答することが可能です。より詳しくは、上記の技術レポートとブログをご参照ください。
54
+ """
55
+ with gr.Blocks() as demo:
56
+ gr.Markdown(DESCRIPTION)
57
+ with gr.Row():
58
+ with gr.Column():
59
+ input_image = gr.Image(type="pil", label="入力画像")
60
+ prompt = gr.Textbox(label="質問", value="この写真について説明してください。", placeholder="入力画像に関する質問文を入力してください。")
61
+ # button
62
+ input_button = gr.Button(value="Submit")
63
+
64
+ with gr.Column():
65
+ output = gr.Textbox(label="モデルからの返答")
66
+ inputs = [
67
+ input_image,
68
+ prompt,
69
+ ]
70
+ input_button.click(fn=inference_fn, inputs=inputs, outputs=[output])
71
+ prompt.submit(fn=inference_fn, inputs=inputs, outputs=[output])
72
+ img2txt_examples = gr.Examples(
73
+ examples=[
74
+ [
75
+ "https://images.unsplash.com/photo-1694831404826-3400c48c188d?q=80&w=2070&auto=format&fit=crop&ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D",
76
+ "この信号機の点滅している色は何色ですか?"
77
+ ],
78
+ [
79
+ "https://user0514.cdnw.net/shared/img/thumb/TSU_mayomayookonomi_TP_V.jpg",
80
+ "この食べ物は何ですか?何でできていますか?"
81
+ ],
82
+ [
83
+ # "https://moon.publicdomainq.net/201809/01o/publicdomainq-0025850pkdvxc.jpg",
84
+ "https://gist.github.com/assets/33302880/a9354891-171e-4925-9216-f5daa40e84e5",
85
+ "この建物は何年誰によって建てられましたか?",
86
+ ],
87
+ ],
88
+ fn=inference_fn,
89
+ inputs=inputs,
90
+ outputs=[output],
91
+ )
92
+ gr.Markdown("""⚠️ 本モデルは実験段階のプロトタイプであり、研究開発の目的でのみ提供されています。商用利用や、障害が重大な影響を及ぼす可能性のある環境(ミッションクリティカルな環境)での使用には適していません。
93
+ 本モデルの使用は、利用者の自己責任で行われ、その性能や結果については何ら保証されません。
94
+ Sakana AIは、本モデルの使用によって生じた直接的または間接的な損失に対して、結果に関わらず、一切の責任を負いません。
95
+ 利用者は、本モデルの使用に伴うリスクを十分に理解し、自身の判断で使用することが必要です。
96
+ また、このデモでは、できる限り多くの皆様にお使いいただけるように、出力テキストを40単語ほどに制限しております。""")
97
+ demo.queue().launch()
requirements.txt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ torchvision
2
+ transformers>=4.35.3
3
+ accelerate