当前位置:主页 > 管理论文 > 移动网络论文 >

基于微博的意图识别

发布时间:2019-06-01 16:35
【摘要】:微博是一种新兴的社交平台,数以亿计的用户每天在微博上发布海量的微博数据。在这些海量的微博中有些微博具有一定意图,它们通常使用显式或者隐式的表达方式来表达相应的意图。将微博中的这些意图准确地识别出来具有巨大的商业价值,本文针对微博中的意图识别主要进行了以下三方面的研究:(1)微博中的显式意图的识别。具有显式意图的微博通常有“想要”,“希望”等意图触发词。本文我们提出了一种新的基于维基百科的显式意图识别模型。对于每一种意图,我们首先选取一些最能代表这种意图的概念集合,即种子概念。然后将种子概念放在维基百科进行查询,通过概念之间的链接关系,我们可以获得与种子概念相关的概念集合,这些扩展的概念在一定程度上也具有相同意图。之后我们利用获得的概念集合构建相应意图的维基百科链路图,在图中用随机游走算法对每个概念分配意图得分。最后我们将微博映射到相应的意图空间中得到相应的意图得分,我们根据意图得分判断微博是否具有对应的意图。如果微博中的某些词没有被维基百科收录,我们利用显式语义分析(ESA)的方法将其映射到最相关的维基百科概念,然后再进行映射计算相应的意图得分。(2)微博中隐式意图的识别。具有隐式意图的微博通常不具有意图触发词,但是可以通过推理得到微博中的意图。目前大多数的研究工作都是针对显式意图识别的,而本文我们进行了微博中隐式意图的识别。我们利用编码器-解码器模型(Encoder-Decoder)将具有隐式意图的微博“翻译”为相应的显式意图的表达方式,然后再进行显式意图的识别。编码器-解码器模型主要应用于序列到序列问题(seq2seq),例如机器翻译,语音识别,图像描述等,而隐式意图与显式意图的转换也属于seq2seq问题,因此可以使用编码器-解码器模型。传统的基于RNN的编码器-解码器模型的主要思想是将输入的句子编码为一个固定长度的语义向量,然后将该语义向量解码生成相应的输出句子。Bahdanau等人后来提出了注意力模型,改进了基于RNN的编码器-解码器模型,他们将输入句子编码为一个长度不固定的语义向量,这样使得即使句子长度很长,翻译效果同样很好。实验中我们进行了两种模型的对比,结果表明注意力模型要比基于RNN的编码器-解码器模型效果更好。为了训练模型,我们构建了包含隐式意图的微博和相应的显式意图微博的语料库。一旦我们通过注意力模型获得意图的显式表达方式之后,接下来就可以使用本文提出的基于维基百科的显式意图识别模型识别其中的显式意图。(3)微博中意图的识别。我们提出一种基于词向量与卷积神经网络的意图识别模型,这种模型具有通用性,不仅可以用来识别显式意图,也可以用来识别隐式意图。模型的通用性主要得益于两方面,一方面是词的词向量表示具有丰富的语义特征,另一方面是因为卷积神经网络可以提取句子的语义特征。因此,当我们将意图识别问题视为多元分类问题时,即一条微博是否具有某种意图,模型可以对具有意图的微博进行分类,无论其中的意图表达方式是显式的还是隐式的,词向量和卷积神经网络模型都可以提取其中的语义特征然后进行正确的意图识别。
[Abstract]:The Internet is a new social platform, with hundreds of millions of users posting massive microblogging data on microblogs every day. Some of these microblogs have some intent in these massive volumes, and they often use explicit or implicit expressions to express the corresponding intent. The purpose of this paper is to identify the following three aspects: (1) the identification of the explicit intention in the system. Microblogs with explicit intent typically have "want", "hope", and other intent-triggered words. In this paper, a new wikipedia-based explicit intention recognition model is presented. For each intent, we first select a set of concepts that best represent this intent, that is, the concept of a seed. The concept of the seeds is then placed in Wikipedia for query, through the link between concepts, we can obtain a set of concepts related to the concept of the seeds, which have the same intent to some extent. After that, we use the obtained concept set to construct the corresponding intention Wikipedia link diagram, and assign the intention score to each concept by the random walk algorithm in the figure. Finally, we map the micro-blog to the corresponding intention space to get the corresponding intention score, and we judge whether the micro-blog has the corresponding intention according to the intention score. If some of these words are not included in Wikipedia, we map it to the most relevant Wikipedia concept by means of explicit semantic analysis (ESA) and then map the corresponding intent score. (2) The identification of implicit intention in the system. Microblog with implicit intent usually does not have an intention to trigger a word, but it can be inferred by reasoning. At present, most of the research work is identified for explicit intent, and the text of this article is to identify the implicit intent. We use the Encoder-Decoder model (Encoder-Decoder) to use the implicit intent-oriented microblogging "translation" as the corresponding explicit intent expression, and then to identify the explicit intent. The encoder-decoder model is mainly applied to sequence-to-sequence problems (seq2seq), such as machine translation, speech recognition, image description, etc., while the implicit intention and explicit intention conversion also belong to the seq2seq problem, and thus an encoder-decoder model can be used. The main idea of the traditional RNN-based encoder-decoder model is to encode the input sentence into a fixed-length semantic vector, and then decode the semantic vector to generate the corresponding output sentence. The Bahdanau et al. later presented an attention model that improved the RNN-based encoder-decoder model, which codes the input sentence as a length-invariant semantic vector, so that even if the sentence length is long, the translation effect is equally good. The results show that the attention model is better than the RNN-based encoder-decoder model. In order to train the model, we built a corpus of microblogs with implicit intent and corresponding explicit intent microblogs. Once we get the explicit expression of intent through the attention model, the explicit intent in this article can then be identified using the Wikipedia-based explicit intent recognition model proposed in this article. (3) Identification of the intention in the case. We propose an intention recognition model based on the word vector and the convolution neural network. The model has the universality, not only can be used to identify the explicit intention, but also can be used to identify the implicit intention. The generality of the model is mainly from two aspects, on the one hand, the word vector representation of the word has a rich semantic feature, and on the other hand, the convolution neural network can extract the semantic features of the sentence. Therefore, when we view the problem as a multi-classification problem, that is, whether a micro-blog has some intention, the model can classify the micro-blog with intention, whether the intention expression is explicit or implicit, The word vector and the convolution neural network model can extract the semantic features therein and then perform the correct intent recognition.
【学位授予单位】:西华大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP391.1;TP393.092

【相似文献】

相关期刊论文 前10条

1 严军勇,金翊,孙浩;三值光计算机多位编码器与解码器的可行性实验研究[J];计算机工程;2004年14期

2 张金超;艾山·吾买尔;买合木提·买买提;刘群;;基于多编码器多解码器的大规模维汉神经网络机器翻译模型[J];中文信息学报;2018年09期

3 谢瑞和,周如彪,王晨;编码器/解码器专用芯片及其应用[J];电子技术;1994年05期

4 张仁禄;;美国RCA公司 台式编码器及移动式解码器的测试分析[J];通讯装备;1982年04期

5 ;ViBE产品系列(编码器,解码器,编解码一体机)[J];现代电视技术;2004年S1期

6 张兴明;编码器MC145026及解码器MC145027/MC145028[J];现代通信;1997年12期

7 周建峰;;为什么我的电影看不了呀?[J];电脑爱好者;2008年22期

8 孔令成;编码器HT-12E和解码器HT-12D的原理及应用[J];国外电子元器件;1997年05期

9 张光建;;基于稀疏自动编码器的深度神经网络实现[J];现代计算机(专业版);2017年35期

10 周启德;MPEG声频编码器与解码器[J];电声技术;1996年01期

相关会议论文 前10条

1 白永威;夏加宽;季慧颖;;基于CPLD的编码器抗干扰电路设计与实现[A];第十三届沈阳科学学术年会论文集(理工农医)[C];2016年

2 张磊;夏传浩;洪一;;使用纠错技术的8b/10b编码器设计[A];全国第22届计算机技术与应用学术会议(CACIS·2011)暨全国第3届安全关键技术与应用(SCA·2011)学术会议论文摘要集[C];2011年

3 ;堡盟微米级精度绝对值编码器[A];高速铁路与轨道交通(领航版)[C];2015年

4 李博;;编码器在宽厚板中的控制应用[A];中国计量协会冶金分会2015年会论文集[C];2015年

5 ;堡盟最新推出超速开关组合式重载编码器[A];高速铁路与轨道交通(证券版)[C];2016年

6 杨柳;薛方;;形状自适应可扩缩编码器的研究与实现[A];全国第十四届计算机科学及其在仪器仪表中的应用学术交流会论文集[C];2001年

7 郝双晖;刘勇;周春蛟;刘杰;;基于标定原理的单磁极编码器设计[A];2005全国自动化新技术学术交流会论文集(三)[C];2005年

8 陈成;;连铸自动化系统编码器软件设计[A];全国冶金自动化信息网2018年会论文集[C];2018年

9 贺庚贤;;一种高精度编码器的检测方法[A];第九届全国光学测试学术讨论会论文(摘要集)[C];2001年

10 蔡智威;关存太;陈永彬;;一种4KbpsCELP编码器的实现[A];第三届全国人机语音通讯学术会议(NCMMSC1994)论文集[C];1994年

相关重要报纸文章 前10条

1 MEB记者 张兰;小零件“解码”大智慧[N];机电商报;2017年

2 本报记者 李文洁;盈动高科:占领全球编码器市场高端[N];东莞日报;2014年

3 本报记者 丹璐;乘AVS+东风 编码器向一流跃升[N];中国电子报;2014年

4 贺顺华;编码器在定型机中的应用[N];中国纺织报;2009年

5 记者 谢晓燕 通讯员 卢达 李院红;国内首台H.265视频实时编码器在我市问世[N];邢台日报;2013年

6 任可;长虹启动新一代AVS编码器研发[N];科技日报;2009年

7 陈运发;普什宁江自制高速磁性编码器通过评审[N];机电商报;2009年

8 ;高性能磁电式编码器问世[N];今日信息报;2004年

9 记者 李恩树;警方摧毁解码器盗车团伙[N];法制日报;2013年

10 记者 史谦;摧毁一特大制贩、使用汽车解码器犯罪网络[N];人民公安报;2013年

相关博士学位论文 前10条

1 王鑫;基于表示学习的情感分析关键技术研究[D];哈尔滨工业大学;2017年

2 周颖华;具时变脉冲的神经网络的稳定性研究[D];西南大学;2018年

3 张婷;深度神经网络的核映射结构和跨连结构研究[D];北京工业大学;2018年

4 胡中旭;虚拟场景人机交互中手势识别技术研究[D];华中科技大学;2018年

5 蒙西;模块化神经网络优化设计及应用研究[D];北京工业大学;2018年

6 吴霆;基于光谱技术的三文鱼品质检测方法研究[D];华南农业大学;2018年

7 杨莉萍;量子计算及其在生物化学问题中的应用研究[D];华中科技大学;2018年

8 涂正文;基于惯性项和四元数的神经网络的动力学行为分析[D];东南大学;2018年

9 张浩;耦合反应扩散神经网络的同步分析与控制[D];华中科技大学;2018年

10 周徐达;稀疏神经网络和稀疏神经网络加速器的研究[D];中国科学技术大学;2019年

相关硕士学位论文 前10条

1 李晨星;基于微博的意图识别[D];西华大学;2017年

2 王秀梅;基于TAP3的漫游数据编码器和解码器的设计与实现[D];北京邮电大学;2006年

3 崔建勇;快速稀疏编码器的研究及应用[D];大连理工大学;2014年

4 张春辉;基于自编码器的稀疏深度模型的研究与应用[D];西安电子科技大学;2017年

5 徐晨飞;基于深度学习的年龄不变人脸识别技术研究与实现[D];电子科技大学;2017年

6 王晓慧;AVS-M编码器算法研究和解码器DSP移植和优化[D];中国海洋大学;2006年

7 李斐然;基于霍尔原理的绝对式磁编码器的研究[D];哈尔滨工业大学;2015年

8 冯立锋;面向高精度伺服系统的磁电式编码器研究[D];哈尔滨工业大学;2014年

9 徐彬;基于FPGA的模拟量编码器接口电路的设计与实现[D];江西科技师范大学;2014年

10 武亭;一种复合式磁编码器的研究[D];哈尔滨工业大学;2011年



本文编号:2490420

资料下载
论文发表

本文链接:https://www.wllwen.com/guanlilunwen/ydhl/2490420.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户d2d89***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com