Datasets:

Modalities:
Image
Size:
< 1K
Libraries:
Datasets
License:
xianbao HF staff commited on
Commit
c05573d
1 Parent(s): b196a10

Update Thinking Like Transformers-cn.md

Browse files
Files changed (1) hide show
  1. Thinking Like Transformers-cn.md +10 -9
Thinking Like Transformers-cn.md CHANGED
@@ -44,13 +44,13 @@ flip()
44
 
45
  ## Transformers 作为代码
46
 
47
- 我们的目标是定义一套计算形式来最小化 Transformers 的表达。我们将通过类比进行此过程,描述其 Transformers 方面的每个语言构造。(正式语言规范请看 [全文](https://arxiv.org/pdf/2106.06981.pdf))
48
 
49
  这个语言的核心单元是将一个序列转换成相同长度的另一个序列的序列操作。我后面将其称之为 transforms。
50
 
51
  ### 输入
52
 
53
- 在一个 Transformer 中,基本曾是一个模型的前馈输入。这个输入通常包含原始的 token 和位置信息。
54
 
55
  <center>
56
 
@@ -188,7 +188,7 @@ atoi.input("31234")
188
 
189
  </center>
190
 
191
- 当连接了这些 transforms,可以更容易的编写功能。举例来说,下面是应用了 where 和 atoi 和加 2 的操作
192
 
193
  ```python
194
  def atoi(seq=tokens):
@@ -213,7 +213,7 @@ op.input("02-13")
213
 
214
  </center>
215
 
216
- 我们开始定义 key 和 query 的标记,Keys 和 Queries 可以直接从上面的 transforms 创建。举个例子,如果我们想要定义一个 key 我们称作 `key`。
217
 
218
  ```python
219
  key(tokens)
@@ -249,7 +249,7 @@ query(1)
249
 
250
  </center>
251
 
252
- 我们创建了筛选器来应用 key 和 query 之间的操作。这对应于一个二进制矩阵,指示每个 query 要关注哪个 key。与 Transformers 不用,这个注意力矩阵未加入权重。
253
 
254
  ```python
255
  eq = (key(tokens) == query(tokens))
@@ -303,7 +303,7 @@ after
303
 
304
  </center>
305
 
306
- 选择器可以通过布尔操作合并。比如,这个选择器 befoe 和 eq 做合并,我们通过在矩阵中包含一对键和值来显示这一点。
307
 
308
  ```python
309
  before & eq
@@ -318,7 +318,7 @@ before & eq
318
  ## 使用注意力机制
319
  给一个注意力选择器,我们可以提供一个序列值做聚合操作。我们通过累加那些选择器选过的真值做聚合。
320
 
321
- (注意:在原始论文中,他们使用一个平均聚合操作并且展示了一个巧妙的结构,其中平均聚合能够代表总和计算。RASPy 默认情况下使用累加来使其简单化并避免碎片化。实际上,这意味着 raspy 可能低估了将基于平均模型转换为 2 倍的层数)
322
 
323
  注意聚合操作使我们能够计算直方图之类的功能。
324
 
@@ -408,7 +408,7 @@ sum2.input([1,3,2,2,2])
408
 
409
  </center>
410
 
411
- 这里有个可以计算累计求和的例子,我们这里介绍 transform 的能力来帮助你调试。
412
 
413
  ```python
414
  def cumsum(seq=tokens):
@@ -449,7 +449,7 @@ x.input([3, 2, 3, 5])
449
 
450
  使用这个函数库,我们可以编写完成一个复杂任务
451
 
452
- Gail Weiss,给我一个极其挑战的问题来打破这个步骤
453
 
454
  我们可以加载一个添加任意长度数字的 Transformer 吗?
455
 
@@ -659,4 +659,5 @@ add()("683+345")
659
  <hr>
660
 
661
  > 英文原文:[Thinking Like Transformers](https://srush.github.io/raspy/)
 
662
  > 译者:innovation64 (李洋)
 
44
 
45
  ## Transformers 作为代码
46
 
47
+ 我们的目标是定义一套计算形式来最小化 Transformers 的表达。我们将通过类比,描述每个语言构造及其在 Transformers 中的对应。(正式语言规范请看 [全文](https://arxiv.org/pdf/2106.06981.pdf))
48
 
49
  这个语言的核心单元是将一个序列转换成相同长度的另一个序列的序列操作。我后面将其称之为 transforms。
50
 
51
  ### 输入
52
 
53
+ 在一个 Transformer 中,基本层是一个模型的前馈输入。这个输入通常包含原始的 token 和位置信息。
54
 
55
  <center>
56
 
 
188
 
189
  </center>
190
 
191
+ 函数 (functions) 可以容易的描述这些 transforms 的级联。举例来说,下面是应用了 where 和 atoi 和加 2 的操作
192
 
193
  ```python
194
  def atoi(seq=tokens):
 
213
 
214
  </center>
215
 
216
+ 我们开始定义 key 和 query 的概念,Keys 和 Queries 可以直接从上面的 transforms 创建。举个例子,如果我们想要定义一个 key 我们称作 `key`。
217
 
218
  ```python
219
  key(tokens)
 
249
 
250
  </center>
251
 
252
+ 我们创建了筛选器来应用 key 和 query 之间的操作。这对应于一个二进制矩阵,指示每个 query 要关注哪个 key。与 Transformers 不同,这个注意力矩阵未加入权重。
253
 
254
  ```python
255
  eq = (key(tokens) == query(tokens))
 
303
 
304
  </center>
305
 
306
+ 选择器可以通过布尔操作合并。比如,这个选择器将 before 和 eq 做合并,我们通过在矩阵中包含一对键和值来显示这一点。
307
 
308
  ```python
309
  before & eq
 
318
  ## 使用注意力机制
319
  给一个注意力选择器,我们可以提供一个序列值做聚合操作。我们通过累加那些选择器选过的真值做聚合。
320
 
321
+ (请注意:在原始论文中,他们使用一个平均聚合操作并且展示了一个巧妙的结构,其中平均聚合能够代表总和计算。RASPy 默认情况下使用累加来使其简单化并避免碎片化。实际上,这意味着 raspy 可能低估了所需要的层数。基于平均值的模型可能需要这个层数的两倍)
322
 
323
  注意聚合操作使我们能够计算直方图之类的功能。
324
 
 
408
 
409
  </center>
410
 
411
+ 这里有个可以计算累计求和的例子,我们这里引入一个给 transform 命名的能力来帮助你调试。
412
 
413
  ```python
414
  def cumsum(seq=tokens):
 
449
 
450
  使用这个函数库,我们可以编写完成一个复杂任务
451
 
452
+ Gail Weiss,给过我一个极其挑战的问题来打破这个步骤
453
 
454
  我们可以加载一个添加任意长度数字的 Transformer 吗?
455
 
 
659
  <hr>
660
 
661
  > 英文原文:[Thinking Like Transformers](https://srush.github.io/raspy/)
662
+ >
663
  > 译者:innovation64 (李洋)