2 个月前

EleAtt-RNN:在循环神经网络中增加注意力机制

Pengfei Zhang; Jianru Xue; Cuiling Lan; Wenjun Zeng; Zhanning Gao; Nanning Zheng
EleAtt-RNN:在循环神经网络中增加注意力机制
摘要

循环神经网络(RNNs)能够建模复杂序列数据的时间依赖关系。通常情况下,现有的RNN结构倾向于控制当前和先前信息的贡献度。然而,对于输入向量中不同元素的重要性水平进行探索的问题常常被忽视。我们提出了一种简单而有效的元素级注意力门控机制(Element-wise-Attention Gate, EleAttG),可以轻松地添加到RNN块(例如,RNN层中的所有RNN神经元)中,以赋予RNN神经元注意能力。对于一个RNN块,EleAttG用于通过分配不同的重要性级别(即注意力)来自适应地调节每个输入元素/维度。我们将配备EleAttG的RNN块称为EleAtt-RNN块。与整体调节输入不同,EleAttG在细粒度上(即元素级)调节输入,并且这种调节是内容自适应的。所提出的EleAttG作为一种附加的基本单元,具有通用性,可以应用于任何RNN结构,例如标准RNN、长短期记忆网络(Long Short-Term Memory, LSTM)或门控循环单元(Gated Recurrent Unit, GRU)。我们通过将其应用于不同的任务来证明所提出的EleAtt-RNN的有效性,这些任务包括基于骨架的数据和RGB视频的动作识别、手势识别以及顺序MNIST分类。实验结果表明,在RNN块中加入通过EleAttGs实现的注意机制显著提升了RNN的能力。

EleAtt-RNN:在循环神经网络中增加注意力机制 | 最新论文 | HyperAI超神经