加急见刊

融合self-attention机制的卷积神经网络文本分类模型

邵清; 马慧萍 上海理工大学光电信息与计算机工程学院; 上海200093

摘要:传统的文本分类算法采用词向量表示文本,忽视了上下文语境中词义的变化.本文通过引入self-attention机制处理词向量,提出一种卷积神经网络模型与关键词提取技术相结合的文本分类模型.该模型对文档进行self-attention操作,以抽取关键信息,构建文档特征图,根据卷积神经网络模型和关键词提取技术实现特征向量的分类.在真实数据集上进行性能分析,并与循环神经网络模型、长短时记忆网络模型进行比较,结果表明该分类模型有效地提高了分类的准确性.

注: 保护知识产权,如需阅读全文请联系小型微型计算机系统杂志社