tags: Attention
前言
本文提出了一个Hierarchical Attention Network(HAN)模型用来做文章分类的任务,该算法提出的动机是考虑到在一个句子中,不同的单词对于决定这个句子的含义起着不同的作用;然后在一篇文章中,不同的句子又对于该文档的分类起着不同的作用。所以这篇层次Attention模型分别在单词层次和句子层次添加了一个Attention机制。实验结果表明这种机制可以提升文章分类的效果,同时通过Attention的权值向量的权值我们可以看出究竟哪些句子以及哪些单词对文档分类起着更重要的作用。
1. HAN算法详解
1.1 网络结构
HAN的网络结构如图1所示,它的核心结构由两个部分组成,下面是一个单词编码器加上基于单词编码的Attention层,上面是一个句子编码器和一个基于句子编码的Attention层。
图1:HAN网络结构图
在详细介绍网络结构之前我们先给出几个重要参数的定义。假设一篇文章由L个句子组成,第si(i∈[1,L])个句子包含Ti个单词,wit是第i个句子中的第t(t∈[1,Ti])个单词。
1.2 单词编码器
图1中最底下的部分是个单词编码器,它的输入是一个句子。给定一个由单词wit组成的句子Ti,它首先会经过一个嵌入矩阵编码成一个特征向量,例如word2vec等方法:
xit=Wewit,t∈[1,T] 之后使用一个单层的双向GRU对xit进行编码:
hit=GRU(xit),t∈[1,T] hit′=GRU(xit),t∈[T,1] 双向GRU的输出是通过拼接前向GRU和反向GRU的方式得到的。
hit=[hit;hit′] 1.3 单词Attention
单词编码器之上是一个单词Attention模块,它首先会将上一层得到的hit输入一个MLP中得到它的非线性表示:
uit=tanh(Wwhit+bw) 接着便是Attention部分,首先需要使用softmax计算每个特征的权值。在论文中使用了Memory Network,Memory Network是于2014年有FAIR提出的一种类似于神经图灵机的结构,它的核心部件是一个叫做记忆单元的部分,用来长期保存特征向量,也就是论文中的上下文向量uw,它的值也会随着训练的进行而更新。Memory Network经过几年的发展也有了很多性能更优的版本,但是由于坑比较深且业内没有广泛使用,暂时没有学习它的计划,感兴趣的同学请自行学习相关论文和代码。结合了Memory Network的权值的计算方式为:
αit=∑texp(uit⊤uw)exp(uit⊤uw) 最后得到的这个句子的编码si便是以hit作为向量值,αit作为权值的加权和:
si=t∑αithit 1.4 句子编码器
句子编码器的也是使用了一个双向GRU,它的结构和单词编码器非常相似,数学表达式为:
hi=GRU(si),t∈[1,T] hi′=GRU(si),t∈[T,1] hi=[hi;hi′] 1.5 句子Attention
HAN的句子Attention部分也是使用了Memory Network带上下文向量的Attention结构,它的输入是句子编码器得到的特征向量,输出的是整个文本的特征向量v。
ui=tanh(Wshi+bs) αi=∑iexp(ui⊤us)exp(ui⊤us) v=i∑αihi 1.5 句子分类
使用softmax激活函数我们可以根据文本向量v得到其每个类别的预测概率p:
p=softmax(Wcv+bc) 由于使用了softmax激活函数,那么它的损失函数则应该是负log似然:
L=−d∑logpdj 其中d是批量中样本的下标,j是分类任务中类别的下标。
2. 总结
结合要解决的问题的具体内容设计与之对应的算法流程和网络结构是一个合格算法工程师必须要掌握的技能之一。本文做了很好的示范,它在文档分类任务中将一个文档按照句子和单词进行了分层,并且在每层中使用了效果非常好的注意力机制。通过层次的注意力机制我们可以分析每个单词,每个句子在文档分类中扮演的作用,这对我们理解模型是非常有帮助的。