2 个月前
高性能Transformer在表格结构识别中需要早期卷积
ShengYun Peng; Seongmin Lee; Xiaojing Wang; Rajarajeswari Balasubramaniyan; Duen Horng Chau

摘要
表格结构识别(TSR)旨在将表格图像转换为机器可读格式,其中视觉编码器提取图像特征,而文本解码器生成表示表格的标记。现有的方法通常使用经典的卷积神经网络(CNN)主干作为视觉编码器,而使用变压器(Transformer)作为文本解码器。然而,这种混合的CNN-Transformer架构引入了一个复杂的视觉编码器,该编码器几乎占用了模型总参数的一半,显著降低了训练和推理的速度,并阻碍了TSR中自监督学习的潜力。在本研究中,我们设计了一种轻量级的视觉编码器用于TSR,同时不牺牲其表达能力。我们发现,一个卷积茎可以匹配经典CNN主干的性能,但模型要简单得多。卷积茎在高性能TSR所需的两个关键因素之间达到了最优平衡:较高的感受野(Receptive Field, RF)比和较长的序列长度。这使得它能够“看到”表格的适当部分,并在后续变压器所需的足够上下文长度内“存储”复杂的表格结构。我们进行了可重复的消融实验,并将代码开源至https://github.com/poloclub/tsr-convstem,以增强透明度、激发创新并促进我们在该领域的公平比较,因为表格是一种有前景的学习表示模态。