Advances in Applied Mathematics
Vol. 11  No. 11 ( 2022 ), Article ID: 57684 , 7 pages
10.12677/AAM.2022.1111813

基于TextCNN的涉密文本识别

张珂1*,陈虹瑾2

1成都信息工程大学网络空间安全学院,四川 成都

2四川传媒学院有声语言艺术学院,四川 成都

收稿日期:2022年10月7日;录用日期:2022年11月1日;发布日期:2022年11月10日

摘要

保密工作直接关系到社会稳定、经济增长、国家安全。新时代信息化和网络迅速普及和发展,办公信息化逐渐成为了主流,在带给办公便利的同时也导致了泄密行为的发生。人工筛选涉密文本极为浪费时间,并且可能会出现人为失误。本文利用爬虫技术构建涉密文本数据集,结合word2vec和TextCNN模型在自建数据集上进行训练。实现准确识别出包含涉密信息的文本。经过实验对比测试,相较于传统的卷积神经网络,TextCNN结合word2vec在自建数据集上达成的效果更好。

关键词

涉密文本,word2vec,TextCNN

Confidential Text Recognition Based on TextCNN

Ke Zhang1*, Hongjin Chen2

1School of Cybersecurity, Chengdu University of Information Technology, Chengdu Sichuan

2Department of Vocal Language Arts, Sichuan University of Media and Communications, Chengdu Sichuan

Received: Oct. 7th, 2022; accepted: Nov. 1st, 2022; published: Nov. 10th, 2022

ABSTRACT

Confidentiality is directly related to social stability, economic growth and national security. With the rapid popularization and development of informatization and network in the new era, office informatization has gradually become the mainstream, which brings convenience to office work and also leads to the occurrence of leakage of secrets. Manual screening of classified texts is a waste of time and may result in human error. In this paper, we use crawler technology to build a secret related text dataset, and combine word2vec and TextCNN models to train on the self built dataset to accurately identify the text containing secret related information. Through experimental comparison test, compared with the traditional convolutional neural network, TextCNN combined with word2vec achieves better results on the self built dataset.

Keywords:Classified Texts, word2vec, TextCNN

Copyright © 2022 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

在全球信息化快速发展的时代,其已经与各行各业予以结合,达到了工作的便捷性与高效性,多数地方政府已经实现了无纸化电子办公。信息化建设大大地提高了政府的效能,同时也增加了执政的透明度。同时,也让人们对于数据的安全性给予高度重视。依照电子信息系统的实际情况来看,其数据的安全性尤其是涉密信息依然存在一定的漏洞,主要体现在涉密信息无法快速识别、安全等级不清晰、涉密信息监管和处理不当,大多数泄密行为的发生都是因为人员操作不当。快速并准确地查找出包含涉密信息的文本是后续工作地基础。现有的涉密信息检测手段多数是关键词匹配和基于传统机器学习的特征识别,这两种方法局限性较强,只关注了词语和特征本身,忽略了语义的存在。本文提出了结合word2vec和TextCNN的混合模型,实验结果表明该混合模型能够更准确地判别文本文档中是否存在涉密信息。

2. 相关研究

在之前的一些研究中,卷积神经网络(CNN)取得了不错的效果,但是CNN没有考虑文本潜在的主题。

2014年,Kim [1] 提出将CNN模型应用到文本分类任务中,发现TextCNN模型可以提取文本的语义信息并捕获上下文的相关信息。TextCNN具有结构简单、训练速度快、效果好等特点。广泛应用于文本分类、推荐等NLP领域。

文本循环神经网络(TextRNN)由Liu,Qiu & Huang [2] 提出,与TextCNN相比,它可以捕捉文本的时间特征,对文本分类任务有很好的效果,但它的训练速度相对较慢。

曹宇 [3] 等出了一种基于双向门控循环单元(BiGRUs)的中文文本情感分析方法。首先将文本转换成词向量序列,然后将BiGRU用于文本的上下文情感特征。F1值达到90.61%,在准确率和训练速度上都高于CNN方法。

Chen, Y. [4] 等提出了一种基于推特和新浪微博数据的新的情感分析方案,该方案考虑了由表情引起的情感因素。通过参与这些模棱两可的表达,训练出一个情绪分类器,并将其嵌入到基于注意力的长时记忆网络中,对情绪分析有很好的指导作用。

Rehman, A.U. [5] 等提出了一种使用LSTM和深度CNN模型的混合模型。首先使用word2vec方法训练初始词嵌入,然后将卷积提取的特征集与具有长期依赖关系的全局最大池层结合起来嵌入后记。该模型还采用了dropout技术、归一化和校正线性单元来提高精度。

综上,本文目标是对中文长文本进行分类,综合了上述模型的优势,提出了结合word2vec和TextCNN的混合模型。经过word2vec预处理的中文数据集,再交由TextCNN去训练,将很大程度提高使用原模型自带嵌入层的准确率。

3. word2vec原理介绍

word2vec最主要的目的就是将不可计算、非结构化的词转换为计算机可以识别出的可计算的向量和结构化的数据。它有两种训练模式,分别是Skip-gram (跳字模型)和CBOW (连续词袋模型)。Skip-gram模型是根据已知中心词语来预测上下文词语;而CBOW模型与其相反,是根据已知上下文词语来预测中心词语。Mikilov [6] 指出Skip-gram相比于CBOW,虽然训练时间更长,但是在遇到生僻字的时候预测准确率将高于CBOW。本文将对大量中文文本进行训练,因此选用Skip-gram模型。如图1所示,Skip-gram的原理就是用当前中心词是 w t (爱好)来预测周围的词,将图1中窗口大小设为2,则每次预测 w t 左边两个词和右边两个词。当输入“爱好”时,输出就会呈现“我”、“的”、“是”、“健身”。

Figure 1. Skip-gram schematic diagram

图1. Skip-gram原理示意图

4. 基于TextCNN的分类模型设计

TextCNN是卷积神经网络CNN的变型,在网络结构上与传统CNN没有变化,包含四个部分:词嵌入、卷积、池化、全连接和softmax。它通过定义不同大小的过滤核,可以实现提取不同大小的局部特征,从而使得到的特征具有多样性和代表性 [7]。TextCNN目前多用于短文本分类,但它同时也适用于处理长文本 [8]。TextCNN分类模型示意图如图2。下面具体描述TextCNN模型搭建的步骤。

1) 自定义Embedding层(嵌入层)

使用word2vec模型训练数据集生成相应的词向量,并调整参数,如embedding_num、batch_size等,以达到更好的训练结果。将word2vec训练好的词向量矩阵作为TextCNN的Embedding层,这样将会提高模型的准确率。

2) 定义卷积层

本文定义了尺寸分别为2,3,4的卷积核,卷积核的数量为256。使用ReLU函数进行激活,使用参数padding=same避免卷积时因窗口大小不同输出向量维度不同地现象并确保三个输出。维度与输入维度相同,方便后续操作。使用三种不同尺寸的窗口可以提取到更多的的文本特征信息。也可适当调整超参数,获取更好的训练结果。

3) 定义池化层

TextCNN输出地向量输入到最大池化层(Max-Pooling)。最大池化层的窗口大小为2,步长为2。这样会使最终的词向量维度只减半,上下文关系可以在一定程度上得到保留。

4) 全连接和softmax

进行最大池化后会得到三个窗口的特征,在全连接层将其连接到一起。Softmax接收全连接的数据并进行分类。

Figure 2. Schematic diagram of TextCNN classification model

图2. TextCNN分类模型示意图

在本文的卷积层中,使用不同大小的卷积核。在一个大小为 n × h 的矩阵中,对于给定的卷积核 ω R h k 和一个大小为 x i : i + h 1 的窗口进行卷积操作生产特征函数 c i = f ( ω x i : i + h 1 + b ) 。在这个函数中, x i : i + h 1 表示一个大小为 h × k 的窗口,由输入矩阵i到 i + h 1 行组成,由 x i , x i + 1 , , x i + h 1 拼接而成。h代表窗口中的词

数, ω 是权重矩阵,b是偏执参数,f是非线性函数。每个卷积操作意味着一个特征向量的提取。通过定义不同大小的窗口可以提取到不同的特征向量,形成卷积层的输出。本文在池化层中选取最大池化方式,从每个滑动窗口生成的特征向量中选择一个最大特征,然后将其连接起来用向量表示。使用softmax函数在最终的全连接层进行分类,其公式为:

P i = e i j e i

其中 P i 表示第i类的概率, e i 表示第i类输出的对应值,j表示类的总数。

5. 实验结果与分析

5.1. 数据集获取

涉密文件是指以文字、图片、音像及其他记录形式记载商业、国家秘密内容的资料。本文针对以文字为记录形式的涉密文件即涉密文本进行研究。

由于该研究的特殊性,并无现成数据集用于训练。因此,本数据集通过爬虫爬取维基解密上一些已解密的中文文本,主要针对军事和政治两类具有鲜明特征的涉密文本。数据集中还包含同类型的(政治、军事)非涉密文本和其他类型的非涉密文本。非涉密文本是采用了搜狗实验室提供的搜狐新闻数据集 [9]。

5.2. 文本预处理

构建完成的数据集不能直接用于训练模型,需要对数据集进行预处理,主要包含中文文本分词、去停用词 [10]。本文选用jieba中文文本分词工具进行分词,并导入去停用词表完成去停用词。

文本预处理后还需要对文本标签进行分类,本实验数据集中的文本标签只有两类,即涉密文本和非涉密文本。对于二分类任务可以使用one-hot (独热编码)处理文本标签数据。处理完成后为涉密文本的文本转化为[0,1],非涉密文本转化为[1,0] [11]。处理完成后就可用于模型的训练。

5.3. 实验环境及模型参数

1) 实验环境

本文所用的实验环境如表1所示。

Table 1. Experimental environment

表1. 实验环境

2) 模型参数

本文配置的模型参数如表2所示。

Table 2. Model parameter configuration

表2. 模型参数配置

5.4. 评价标准

为了评价模型的预测性能,本文选取准确率(Accuracy)、损失率(Loss)两个指标作为模型的评测指标,假设TP为真阳性,FP为假阳性,TN为真阴性,FN为假阴性。模型的准确率为准确预测样本数/样本总数 [4]。这就引出了定义公式:

A c c = T P + T N T P + T N + F P + F N

选择交叉熵损失函数,其公式如下:

C = 1 n x [ y ln a + ( 1 y ) ln ( 1 a ) ]

其中x表示样本,y表示标签,a表示预测的结果,n表示样本总量。

5.5. 实验及结果

为了体现该模型的准确率,分别采用了TextRNN、TextRNN + Attention、TextRCNN三种模型在相同数据集上进行分类。经过对比,TextCNN在本数据集上的表现更好。不同模型的准确率如表3所示。

Table 3. Comparison of model accuracy

表3. 模型准确率比较

6. 结语

本文先构建了一个包含涉密中文文本的数据集,利用word2vec对数据预处理后,基于TextCNN模型进行了分类任务。通过改进后的TextCNN模型,经过实验对比,在自建数据集上取得了更好的分类效果。

本文也存在一些不足,比如用来训练模型的数据集数据量不够,模型也并未做出太大的调整。下一步将继续研究是否有更优秀的模型,在保证训练速度的同时也能够能达到更好的分类效果。

文章引用

张 珂,陈虹瑾. 基于TextCNN的涉密文本识别
Confidential Text Recognition Based on TextCNN[J]. 应用数学进展, 2022, 11(11): 7681-7687. https://doi.org/10.12677/AAM.2022.1111813

参考文献

  1. 1. Kim, Y. (2019) Convolutional Neural Networks for Sentence Classification. arXiv preprint arXiv:1408.5882.

  2. 2. Cambria, E., Liu, Q., Decherchi, S., et al. (2022) SenticNet 7: A Commonsense-Based Neuro-symbolic AI Framework for Explainable Sentiment Analysis. Proceedings of LREC 2022.

  3. 3. 曹宇, 李天瑞, 贾真, 殷成凤. BGRU: 中文文本情感分析的新方法[J]. 计算机科学与探索, 2019, 13(6): 973-981.

  4. 4. Chen, Y., Yuan, J., You, Q., et al. (2018) Twitter Sentiment Analysis via Bi-Sense Emoji Embedding and Attention-Based LSTM. Pro-ceedings of the 26th ACM international conference on Multimedia, 117-125.

  5. 5. Rehman, A.U., Malik, A.K., Raza, B., et al. (2019) A Hybrid CNN-LSTM Model for Improving Accuracy of Movie Reviews Sentiment Analysis. Multimedia Tools and Applications, 78, 26597-26613.

  6. 6. Mikolov, T., Chen, K., Corrado, G., et al. (2013) Efficient Estimation of Word Representations in Vector Space. arXiv e-prints.

  7. 7. 李志杰, 耿朝阳, 宋鹏. LSTM-TextCNN联合模型的短文本分类研究[J]. 西安工业大学学报, 2020, 40(3): 6.

  8. 8. 李悦, 汤鲲. 基于TextCNN的政策文本分类[J]. 电子设计工程, 2022(12): 43-47.

  9. 9. 于海. 基于卷积神经网络的非结构化文本敏感信息检测系统的设计与实现[D]: [硕士学位论文]. 北京: 北京邮电大学, 2019.

  10. 10. 刘春磊, 武佳琪, 檀亚宁. 基于TextCNN的用户评论情感极性判别[J]. 电子世界, 2019(3): 2.

  11. 11. 张浩然, 谢云熙, 张艳荣. 基于TextCNN的文本情感分类系统[J]. 哈尔滨商业大学学报(自然科学版), 2022(3): 285-292.

  12. NOTES

    *通讯作者。

期刊菜单