Holy-fox commited on
Commit
782f3d6
1 Parent(s): aaf8a5a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +62 -3
README.md CHANGED
@@ -1,3 +1,62 @@
1
- ---
2
- license: gemma
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: gemma
3
+ datasets:
4
+ - DataPilot/in-foxhound-ja
5
+ language:
6
+ - ja
7
+ base_model:
8
+ - google/gemma-2-9b-it
9
+ pipeline_tag: text2text-generation
10
+ tags:
11
+ - finance
12
+ ---
13
+
14
+ ## 概要
15
+ このモデルは[in-foxhound-ja](https://huggingface.co/datasets/DataPilot/in-foxhound-ja)を用いて、長期的な視点で、安全域のある優良企業を探し出し、詳細な分析に基づいた投資判断と根拠を示すことを目的に製作されました。
16
+
17
+ ## how to use
18
+
19
+ ```python
20
+ # sentencepiece, protobuf, accelerate>=0.26.0, bitsandbytesをインストールしてあることを前提とします。
21
+ import torch
22
+ from transformers import AutoTokenizer, AutoModelForCausalLM
23
+
24
+ # モデルとトークナイザーをロード
25
+ model_name = "DataPilot/gemma2-Intelligent-Investor-5b-v2.5" # 好きなモデル名に変更可能
26
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
27
+ model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", torch_dtype=torch.float16) # デバイスを自動的に選択
28
+
29
+ # Alpaca形式のプロンプトテンプレート
30
+ alpaca_prompt = """Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.
31
+
32
+ ### Instruction:
33
+ {}
34
+
35
+ ### Input:
36
+ {}
37
+
38
+ ### Response:
39
+ {}"""
40
+
41
+ # 推論を実行
42
+ inputs = tokenizer(
43
+ [
44
+ alpaca_prompt.format(
45
+ "あなたは世界最高レベルにある価値投資の達人です。長期的な視点で、安全域のある優良企業を探し出し、詳細な分析に基づいた投資判断と根拠を示すことが得意です。", # 命令
46
+ "長期投資において優良な企業の条件と長期投資において大切なマインドを教えて下さい。", # 入力
47
+ "", # 出力 - 生成の場合は空白にします
48
+ )
49
+ ],
50
+ return_tensors="pt",
51
+ ).to("cuda")
52
+
53
+ outputs = model.generate(**inputs, max_new_tokens=1024, use_cache=True)
54
+ print(tokenizer.batch_decode(outputs, skip_special_tokens=True))
55
+
56
+ ```
57
+
58
+ ## プロンプトフォーマット
59
+ プロンプトフォーマットにはAlpaca形式のプロンプトテンプレートを使用しています。
60
+
61
+ ## 謝辞
62
+ もとデータセットの作成者である[glaive-ai](https://glaive.ai/)と計算資源を貸してくれた[MDL](https://www.metadatalab.net/)に感謝します。