Loading...
墨滴

algolearn

2021/09/17  阅读:38  主题:默认主题

attention与self attention

1 什么是注意力机制?

当我们观察某件事物/景色的时候,往往会先简单看下周围环境,然后将重点放在某一重要部分。深度学习中的注意力机制从本质上讲和人类的选择性视觉注意力机制类似,也是从众多信息中选择出对当前任务目标更关键的信息。下图形象化展示了人类在看到一副图像时是如何高效分配有限的注意力资源的,其中红色区域表明视觉系统更关注的目标,很明显对于下图所示的场景,人们会把注意力更多投入到人的脸部,文本的标题以及文章首句等位置。

2 从encoder和decode说起

encoder-decode框架在自然语言处理任务中常常出现,可以把它看作将语句1生成语句2的通用模型。常见结构如下:

我们给定 ,期望通过encoder-decoder模型生成 ,Encoder顾名思义就是对输入语句进行编码,将输入语句通过非线性变换转化为中间语义 表示,对于解码器Decoder来说,其任务是根据输入语句的中间语义表示 和之前已经生成的历史信息 来生成 时刻要生成的单词 。每个 都依次按照上述流程产生,这就是encoder-decoder讲语句1转成语句2的过程。

3 Attention

3.1 attention思想

上面展示的encoder-decoder框架是没有体现出注意力机制的。

其中 是decoder的非线性变换函数。从这里可以看出,在生成目标句子的单词时,不论生成哪个单词,它们使用的输入语句的语义编码 都是一样的。而语义编码 由输入语句的每个单词经过encoder编码产生,也就是说不论是生成哪个单词, ,其实输入语句中任意单词对生成某个目标单词 来说影响力都是相同的,这是为何说这个模型没有体现出注意力的缘由。

输出语句中的每个单词都应该学会其对应的源语句中单词的注意力分配概率信息。这意味着在生成每个单词 的时候,原先都是相同的中间语义表示 会被替换成根据当前生成单词而不断变化的 。理解Attention模型的关键就是这里,即由固定的中间语义表示 换成了根据当前输出单词来调整成加入注意力模型的变化的 。增加了注意力模型的encoder-decoder框架理解起来如下图所示。

即生成目标语句的过程成了下面的形式:

上述内容就是经典的Attention模型的基本思想,那么怎么理解Attention模型的物理含义呢?一般在自然语言处理应用里会把Attention模型看作是输出Target句子中某个单词和输入Source句子每个单词的对齐模型,这是非常有道理的。目标语句生成的每个单词对应输入语句单词的概率分布可以理解为输入语句单词和这个目标生成单词的对齐概率,这在机器翻译语境下是非常直观的:传统的统计机器翻译一般在做的过程中会专门有一个短语对齐的步骤,而注意力模型其实起的是相同的作用。

3.2 attention

attention 计算分3个步骤:

第一步: query 和 key 进行相似度计算,得到权值.计算两者的相似性或者相关性,最常见的方法包括:求两者的向量点积、求两者的向量Cosine相似性或者通过再引入额外的神经网络来求值

第二步:将权值进行归一化,得到直接可用的权重

第三步:将权重和 value 进行加权求和

3.3 self attention

它指的不是输入语句和输出语句之间的Attention机制,而是输入语句内部元素之间或者输出语句内部元素之间发生的Attention机制,也可以理解为Target=Source这种特殊情况下的注意力计算机制,Q=K=V。通过自己与自己的attention来自动捕获token和token之间的关联。下面有一个可视化的例子

4 优点

参数少。模型复杂度跟 CNN、RNN 相比,复杂度更小,参数也更少。所以对算力的要求也就更小。

速度快。Attention 解决了 RNN 不能并行计算的问题。Attention机制每一步计算不依赖于上一步的计算结果,因此可以和CNN一样并行处理。

效果好。在 Attention 机制引入之前,有一个问题大家一直很苦恼:长距离的信息会被弱化,就好像记忆能力弱的人,记不住过去的事情是一样的。

欢迎扫码关注下方微信公众号(算法工程师面试那些事儿),建号初期,期待和大家一起刷leecode,刷机器学习、深度学习面试题等,共勉~

5 参考

(1)https://zhuanlan.zhihu.com/p/91839581

(2)http://www.sniper97.cn/index.php/note/deep-learning/note-deep-learning/3850/

(3)https://www.zhihu.com/question/68482809/answer/264632289

algolearn

2021/09/17  阅读:38  主题:默认主题

作者介绍

algolearn