if001 commited on
Commit
f26c051
1 Parent(s): cd4d4ec
Files changed (1) hide show
  1. README.md +9 -1
README.md CHANGED
@@ -2,6 +2,7 @@
2
  license: mit
3
  ---
4
 
 
5
  PhiConfig {
6
  "attention_dropout": 0.0,
7
  "bos_token_id": 1,
@@ -27,7 +28,9 @@ PhiConfig {
27
  "use_cache": true,
28
  "vocab_size": 20
29
  }
 
30
 
 
31
  PhiForCausalLM(
32
  (model): PhiModel(
33
  (embed_tokens): Embedding(20, 8)
@@ -54,6 +57,10 @@ PhiForCausalLM(
54
  )
55
  (lm_head): Linear(in_features=8, out_features=20, bias=True)
56
  )
 
 
 
 
57
  ===========================================================================
58
  Layer (type:depth-idx) Param #
59
  ===========================================================================
@@ -74,4 +81,5 @@ PhiForCausalLM --
74
  Total params: 2,816
75
  Trainable params: 2,816
76
  Non-trainable params: 0
77
- ===========================================================================
 
 
2
  license: mit
3
  ---
4
 
5
+ ```
6
  PhiConfig {
7
  "attention_dropout": 0.0,
8
  "bos_token_id": 1,
 
28
  "use_cache": true,
29
  "vocab_size": 20
30
  }
31
+ ```
32
 
33
+ ```
34
  PhiForCausalLM(
35
  (model): PhiModel(
36
  (embed_tokens): Embedding(20, 8)
 
57
  )
58
  (lm_head): Linear(in_features=8, out_features=20, bias=True)
59
  )
60
+
61
+ ```
62
+
63
+ ```
64
  ===========================================================================
65
  Layer (type:depth-idx) Param #
66
  ===========================================================================
 
81
  Total params: 2,816
82
  Trainable params: 2,816
83
  Non-trainable params: 0
84
+ ===========================================================================
85
+ ```