
摘要
我们旨在捕捉由神经网络生成的特征向量的高阶统计特性,并提出端到端的二阶及更高阶池化方法,以构建张量描述子。由于聚合向量数量较少以及“突发性”(burstiness)现象——即某一特征的出现频率显著高于或低于统计预期——张量描述子需要具备鲁棒的相似性度量机制。图拉普拉斯矩阵上的热扩散过程(Heat Diffusion Process, HDP)与协方差/自相关矩阵的特征值幂归一化(Eigenvalue Power Normalization, EPN)密切相关,而该矩阵的逆矩阵构成了一个带有环路结构的图拉普拉斯矩阵。我们证明,HDP与EPN在本质上具有相同作用:通过增强或抑制特征谱的幅值,从而有效抑制突发性现象。我们将EPN机制引入高阶张量,使其作为高阶共现事件的谱检测器,以防止突发性问题。此外,我们进一步证明,对于由d维特征描述子构建的r阶张量,该检测器能够提供至少一个高阶共现事件“投影”至由张量表示的$\binom{d}{r}$个子空间之一时的似然概率;因此,该方法形成了一种张量幂归一化度量,其内部集成了$\binom{d}{r}$个此类“检测器”。在实验贡献方面,我们将多种二阶及更高阶池化变体应用于动作识别任务,提供了此前未见的各类池化方法之间的系统性比较,并在HMDB-51、YUP++和MPII Cooking Activities数据集上取得了当前最优的性能结果。