大学生学习行为分析研究与应用
【学位授予单位】:苏州大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:G434;TP391.1
【图文】:
图 3-2 软件工程专业词库截图为了适应时代的发展,培养计划和课程体系结构会不断地更新,新的专业名词也会不断出现,对于这些新名词需要及时添加到专业词库中,从而不断完善专业词库。3.2.2 基于语言模型算法的专业词库扩展由于培养计划里的课程名无法涵盖该专业的全部内容,所以需要对初步建立的专业词库进行扩展。文献[60]在基于局部分析的词扩展方法基础上,设计和实现了一种基于语言模型的扩展词提取算法,该算法准确率较高,且操作简单。所以本文使用语言模型算法来对专业词库进行扩展。该算法的基本思想为:首先,选取若干相关文档,计算出每篇文档的一元语言模型,即计算出每篇文档所包含的各个词项对应的概率;然后,将各个文档的词项合并,将相同词项的概率求和作为该词项在整个文档集的概率;最后,选取概率最大的前若干词项作为扩展词。具体处理流程如下:
上网内容获取与处理据采集大学生的上网数据为研究对象,数据来源于常熟理工学院。从本校大学生的上网日志数据。提取的数据格式为 ONLINE_SER_IP,源端口号 SRC_PORT,目的 IP 地址 DST_IP,T,协议版本 IP_VERSION,操作类型 HTTP_TYPE…),总共数据中不包含大学生学号信息,本文利用校园信息门户网站,并与上网日志中 IP 地址一一对应,将上网数据与上网学上网日志数据中抽取出关键字段,创建表 STU_SURF(学号 IP,访问网址HTTP_URL,上网时长SECONDS,上线时间RELUX,网站类型 APP)。以学号为 092217101 的学生为例,查使用如图 3-3 中的 SQL 语句。
图 3-4 部分查询结果截图在获得大学生的上网数据后,利用表 STU_SURF 中“HTTP_URL”字段便学生的访问网址,利用爬虫技术爬取网页文本内容,本文使用 Scrapy 爬虫框.2 爬虫本文使用 Scrapy 爬虫框架爬取大学生访问内容。Scrapy 是利用 Python 语言络爬虫框架,作为爬虫框架,它使得爬虫的设计和工作变得快速简单,同时的扩展性和鲁棒性[61]。所以 Scrapy 在爬虫设计中使用广泛,也符合本文所虫特性,因此本文使用 Scrapy 来完成网页爬取工作。下图3-5概括了Scrapy的整体架构,一共由8个部分组成,主要包括了以下组
【参考文献】
相关期刊论文 前10条
1 蒋卓轩;张岩;李晓明;;基于MOOC数据的学习行为分析与预测[J];计算机研究与发展;2015年03期
2 赵永超;姚晓霞;;高校机构知识库建设现状与未来[J];中国教育网络;2014年07期
3 舒忠梅;屈琼斐;;基于教育数据挖掘的大学生学习成果分析[J];东北大学学报(社会科学版);2014年03期
4 连阳阳;任淑霞;;一种基于离散粒子群优化的贝叶斯分类算法[J];科技信息;2014年04期
5 陈益均;殷莉;;基于数据挖掘的学生成绩影响模型的研究[J];现代教育技术;2013年01期
6 孟小峰;慈祥;;大数据管理:概念、技术与挑战[J];计算机研究与发展;2013年01期
7 周围;;论积极取向道德教育视域中的品德形成机制[J];教育学术月刊;2012年09期
8 张步良;;基于分类概率加权的朴素贝叶斯分类方法[J];重庆理工大学学报(自然科学);2012年07期
9 王家胜;牟肖光;;读者借阅多维关联规则挖掘模型的建立与分析[J];计算机应用;2011年11期
10 奉国和;郑伟;;国内中文自动分词技术研究综述[J];图书情报工作;2011年02期
相关博士学位论文 前1条
1 蒋良孝;朴素贝叶斯分类器及其改进算法研究[D];中国地质大学;2009年
相关硕士学位论文 前6条
1 安子建;基于Scrapy框架的网络爬虫实现与数据抓取分析[D];吉林大学;2017年
2 杨志忠;基于Hadoop的网络用户行为分析[D];兰州理工大学;2016年
3 刘敏;面向SPOC数据的学习行为分析[D];华中师范大学;2015年
4 周念;面向用户定制的文本过滤技术研究及其应用[D];北京邮电大学;2014年
5 张佳;数据挖掘技术在校园一卡通系统中的应用研究[D];苏州大学;2013年
6 张保华;数据挖掘技术的研究及在图书借阅系统中的应用[D];南京理工大学;2008年
本文编号:2779542
本文链接:https://www.wllwen.com/jiaoyulunwen/xueshengguanli/2779542.html