17 天前

通过迁移学习与数据转换实现预训练视觉模型对文本数据的分类

Charaf Eddine Benarab
通过迁移学习与数据转换实现预训练视觉模型对文本数据的分类
摘要

人类通过经验获取知识,且在不同任务上所能达到的知识类型与技能水平之间并无明确界限。然而,在神经网络领域,情况并非如此。该领域的突破往往具有极强的任务特异性和领域依赖性:视觉任务与语言任务通常采用不同的处理方式、独立的方法以及不同的数据集。当前的文本分类方法主要依赖于为输入文本样本获取上下文嵌入(contextual embeddings),随后基于这些嵌入数据训练分类器。在语言相关任务中,迁移学习(Transfer Learning)被广泛用于获取输入样本的上下文文本嵌入。在本研究中,我们提出利用在ImageNet上预训练的基准视觉模型所习得的知识,辅助一个结构更小的模型学习文本分类任务。为此,我们采用一种数据转换技术,将BERT模型最后六层的句子嵌入通过基于t-SNE的方法投影至二维平面,生成一个新的图像数据集,其中每张图像对应一个句子的嵌入表示。随后,我们在该图像数据集上训练了五个模型,这些模型均从在ImageNet上预训练的视觉模型中截取其浅层网络结构。实验针对的是使用BERT最后六层嵌入表示的IMDB数据集。尽管所涉及的图像数据集与原始文本数据在分布上存在显著差异,但该方法通过连接语言与视觉领域中大型预训练模型,取得了非常有前景的实验结果,且无需额外消耗大量计算资源。具体而言,五种不同的模型在将BERT嵌入转换为灰度图像后所构建的统一图像数据集上,成功实现了情感分析任务。关键词:BERT,卷积神经网络,领域自适应,图像分类,自然语言处理,t-SNE,文本分类,迁移学习