Run this notebook online:Binder or Colab: Colab

10.1. 注意力提示

感谢你对本书的关注。注意力是一种稀缺资源:此时你正在读本书,而忽略其他内容。因此,与金钱类似,你的注意力也伴随着机会成本。为了确保你现在的注意力投入是值得的,我们一直被被高度激励着用心去创作一本好书。注意力是生命拱门的基石,是任何作品出类拔萃的关键所在。

根据经济学研究中稀缺资源的分配,我们正处于处于注意力经济时代。在这里,人类的注意力被视为一种有限的、有价值的、稀缺的、可以进行交换的商品。人们利用它开发了许多商业模式。在音视频流媒体服务中,我们要么关注他们的广告,要么花钱来隐藏它们。为了在网络游戏世界成长,我们要么付出注意力参与战斗,吸引新手玩家,要么花钱立即变得强大。天下没有免费的午餐。

总而言之,稀缺的并不是我们环境中的信息而是注意力。在注视一个视觉场景时,我们的光学神经以每秒 \(10^8\) bits 的速度接收信息,远远超过我们的大脑可以完全处理的信息。幸运的是,我们的祖先已经从经验(也称为数据)中了解到并非所有的感官输入都是平等的。纵观人类历史,将注意力集中在感兴趣的一小部分信息的能力,使我们的大脑能够更聪明地分配资源以生存、成长和社交,例如探测捕食者、猎物和配偶。

10.1.1. 生物学中的注意力提示

为了解释我们的注意力是如何在视觉世界中被部署的,一个双组件(two-component)的框架应运而生,并得到了普及。这个观点可以追溯到1890年代的 William James,他被认为是“美国心理学之父”:cite:James.2007。在这个框架里,受试者利用 非自主性提示(nonvolitional cue)自主性提示(volitional cue) 有选择地引导注意力的焦点。

非自主性提示是基于环境中物体的突出性和易见性。想象你面前有五样东西:一份报纸,一份研究报告,一杯咖啡,一个笔记本和一本书,如 fig_eye-coffee 所示。所有的纸制品都是黑白印刷的,而咖啡杯是红色的。换句话说,这杯咖啡在这个视觉环境中本质上是很突出和明显的,自动地和不自觉地吸引人们的注意力。所以你把fovea(黄斑中心,视力最敏锐的地方)放在咖啡上,如 fig_eye-coffee 所示。

使用基于突出性的非自主性提示(红杯子,而非纸张),注意力不自主地指向了咖啡。
width

400px .. _fig_eye-coffee:

喝完咖啡后,你会变得兴奋并想读书。所以你转过头,重新聚焦你的眼睛,然后看着书,如 fig_eye-book 所示。在 fig_eye-coffee 的案例中,咖啡会让你基于显著性选择,而在这个任务依赖的案例中,你会在认知和意志控制下选择书籍。使用基于可变选择标准的意志线索,这种形式的注意力更刻意。主体的自主意愿也更强大。

通过使用依赖于任务的意志提示(想读一本书),注意力被自主引导的书上。
width

400px .. _fig_eye-book:

10.1.2. 查询、键和值

自主性的与非自主性的注意力提示解释了注意力的方式,下面我们将描述设计注意力机制时的框架,框架中合并这两个注意力提示来设计注意力机制。

首先,考虑一个相对简单的状况,即只使用非自主性提示。要想将选择偏向于感官输入,我们可以简单地使用参数化的全连接层,甚至是非参数化的最大汇聚层或平均汇聚层。

因此,通过是否包含自主性提示将注意力机制与全连接层或汇聚层区别开来。在注意力机制的背景下,我们将自主性提示称为 查询(Queries)。给定任何查询,注意力机制通过 注意力汇聚(attention pooling) 将选择偏向于感官输入(例如中间特征表示)。在注意力机制的背景下,这些感官输入被称为 值(Values)。更通俗的解释,每个值都与一个 键(Keys) 配对,这可以想象为感官输入的非自主提示。如 Section 10.1.2 所示,我们可以设计注意力汇聚,以便给定的查询(自主性提示)可以与键(非自主性提示)进行交互,这将引导将选择偏向于值(感官输入)。

注意力机制通过注意力汇聚将 查询(自主性提示)和 键(非自主性提示)结合在一起,实现对 值(感官输入)的选择倾向。

注意,注意力机制的设计有许多替代方案。例如,我们可以设计一个不可微的注意力模型,该模型可以使用强化学习方法 [Mnih.Heess.Graves.ea.2014] 进行训练。鉴于上面所提框架在 Section 10.1.2 中的主导地位,因此这个框架下的模型将成为本章我们关注的中心。

10.1.3. 注意力的可视化

平均汇聚层可以被视为输入的加权平均值,其中各输入的权重是一样的。实际上,注意力汇聚得到的是加权平均的总和值,其中权重是在给定的查询和不同的键之间计算得出的。

%load ../utils/djl-imports
%load ../utils/plot-utils
%load ../utils/Functions.java
NDManager manager = NDManager.newBaseManager();

为了可视化注意力权重,我们定义了 show_heatmaps 函数。它的输入矩阵的形状(要显示的行数,要显示的列数,查询的数量,键的数量)。

public static Figure showHeatmaps(
            NDArray matrices,
            String xLabel,
            String yLabel,
            String[] titles,
            int width,
            int height) {
    int numRows = (int) matrices.getShape().get(0);
    int numCols = (int) matrices.getShape().get(1);

    Trace[] traces = new Trace[numRows * numCols];
    int count = 0;
    for (int i = 0; i < numRows; i++) {
        for (int j = 0; j < numCols; j++) {
            NDArray NDMatrix = matrices.get(i).get(j);
            double[][] matrix =
                    new double[(int) NDMatrix.getShape().get(0)]
                            [(int) NDMatrix.getShape().get(1)];
            Object[] x = new Object[matrix.length];
            Object[] y = new Object[matrix.length];
            for (int k = 0; k < NDMatrix.getShape().get(0); k++) {
                matrix[k] = Functions.floatToDoubleArray(NDMatrix.get(k).toFloatArray());
                x[k] = k;
                y[k] = k;
            }
            HeatmapTrace.HeatmapBuilder builder = HeatmapTrace.builder(x, y, matrix);
            if (titles != null) {
                builder = (HeatmapTrace.HeatmapBuilder) builder.name(titles[j]);
            }
            traces[count++] = builder.build();
        }
    }
    Grid grid =
            Grid.builder()
                    .columns(numCols)
                    .rows(numRows)
                    .pattern(Grid.Pattern.INDEPENDENT)
                    .build();
    Layout layout =
            Layout.builder()
                    .title("")
                    .xAxis(Axis.builder().title(xLabel).build())
                    .yAxis(Axis.builder().title(yLabel).build())
                    .width(width)
                    .height(height)
                    .grid(grid)
                    .build();
    return new Figure(layout, traces);
}

我们使用一个简单的例子进行演示。在本例子中,仅当查询和键相同时,注意力权重为1,否则为0。

NDArray attentionWeights = manager.eye(10).reshape(new Shape(1, 1, 10, 10));
showHeatmaps(attentionWeights, "Keys", "Queries", null, 700, 1000)

在后面的章节中,我们将经常调用这个函数来可视化注意力权重。

10.1.4. 小结

  • 人类的注意力是一种有限的、有价值的、稀缺的资源。

  • 主体使用非自主性和自主性提示有选择性地引导注意力。前者是基于突出性,后者则依赖于任务。

  • 注意力机制和全连接层或池化层的区别源于增加的自主提示。

  • 注意力机制通过注意力汇聚使选择偏向于值(感官输入),其中包括查询(自主性提示)和键(非自主性提示)。键和值时成对的。

  • 我们可以可视化查询和键之间的注意力权重。

10.1.5. 练习

  1. 在机器翻译中通过解码序列词元时,其自主性提示可能是什么?非自主性提示和感官输入又是什么?

  2. 随机生成一个 \(10 \times 10\) 矩阵并使用 softmax 运算来确保每行都是有效的概率分布,然后可视化输出注意力权重。