基于生成式模型的零样本图像分类
发布时间:2021-08-10 21:46
零样本学习(零样本图像分类)主要研究利用属性或词向量等额外信息充当语义空间,在训练类别与测试类别没有交集的情况下,如何对测试类样本进行正确分类的问题,以及如何减小由于训练样本和测试样本之间的分布差异导致的领域偏移问题。本文主要围绕基于生成式模型的零样本图像分类展开研究,主要研究内容如下:1.针对零样本学习中图像特征到语义属性映射会发生领域偏移问题,提出了一种自动编码器和类特征原型相结合的生成式零样本学习模型。首先构建图像特征的类特征原型,并作为每个类别的标记,利用核函数构建属性向量核矩阵;其次利用自动编码器对训练类别的类特征原型和属性核矩阵进行模型构建,自动编码器对图像特征进行重构,先编码后解码,两次映射可以减少图像特征与语义属性之间的信息丢失;然后将测试类的属性核矩阵应用到自动编码器模型以生成测试类的类特征原型,再利用测试类的类特征原型附近的K个近邻样本对生成的测试类特征原型进行修正;最后在图像特征空间对修正后类特征原型利用最近邻分类器进行零样本分类。2.针对大多数基于生成式模型的零样本图像分类中没有考虑到生成测试类样本中存在噪声,以及与真实测试类特征分布不一致的问题。提出一种基于条...
【文章来源】:中国矿业大学江苏省 211工程院校 教育部直属院校
【文章页数】:76 页
【学位级别】:硕士
【部分图文】:
属性学习示意图
4基于条件变分编码器与领域自适应的零样本学习45图4-8N的取值对实验分类结果的影响Figure4-8TheinfluenceofNontheresultsofclassification同理由图可知对于AWA1和AWA2数据集,当N取值为200时分类效果最好。因为这两个数据集的测试类类别相对较少,所以训练类中的样本相比CUB数据集较多,有利于模型能够深层次的挖掘样本数据的特征分布规律,同时也能学习到训练类别特征与语义属性之间的内在联系,因此生成模型不需要生成太多测试类样本就可以充分的表达测试类的特征,故能够很快收敛。4.3.4损失函数收敛性分析损失函数是衡量评估一个模型好坏最直观的方法,如果预测值与实际值偏离较远,损失函数值越大;反之,损失函数值越小,所以损失函数在模型训练分析中必不可少。图4-9、图4-10、图4-11分别为三个不同数据集的损失函数trainloss曲线,其中图像横坐标为模型迭代次数,纵坐标为损失函数值。图4-9AWA1数据集损失曲线Figure4-9theLosscurveofAWA1datasets图4-10AWA2数据集损失曲线Figure4-10theLosscurveofAWA2datasets
4基于条件变分编码器与领域自适应的零样本学习45图4-8N的取值对实验分类结果的影响Figure4-8TheinfluenceofNontheresultsofclassification同理由图可知对于AWA1和AWA2数据集,当N取值为200时分类效果最好。因为这两个数据集的测试类类别相对较少,所以训练类中的样本相比CUB数据集较多,有利于模型能够深层次的挖掘样本数据的特征分布规律,同时也能学习到训练类别特征与语义属性之间的内在联系,因此生成模型不需要生成太多测试类样本就可以充分的表达测试类的特征,故能够很快收敛。4.3.4损失函数收敛性分析损失函数是衡量评估一个模型好坏最直观的方法,如果预测值与实际值偏离较远,损失函数值越大;反之,损失函数值越小,所以损失函数在模型训练分析中必不可少。图4-9、图4-10、图4-11分别为三个不同数据集的损失函数trainloss曲线,其中图像横坐标为模型迭代次数,纵坐标为损失函数值。图4-9AWA1数据集损失曲线Figure4-9theLosscurveofAWA1datasets图4-10AWA2数据集损失曲线Figure4-10theLosscurveofAWA2datasets
【参考文献】:
期刊论文
[1]基于生成对抗网络的零样本图像分类[J]. 魏宏喜,张越. 北京航空航天大学学报. 2019(12)
[2]用于图像分类的卷积神经网络中激活函数的设计[J]. 王红霞,周家奇,辜承昊,林泓. 浙江大学学报(工学版). 2019(07)
[3]一种卷积神经网络的稀疏性Dropout正则化方法[J]. 周安众,罗可. 小型微型计算机系统. 2018(08)
[4]一种基于直推判别字典学习的零样本分类方法[J]. 冀中,孙涛,于云龙. 软件学报. 2017(11)
[5]基于KL散度的用户相似性协同过滤算法[J]. 王永,邓江洲. 北京邮电大学学报. 2017(02)
[6]基于最大分布加权均值嵌入的领域适应学习[J]. 臧绍飞,程玉虎,王雪松. 控制与决策. 2016(11)
[7]基于样本局部判别权重的加权迁移成分分析[J]. 臧绍飞,程玉虎,王雪松. 中国矿业大学学报. 2016(05)
[8]基于属性关系图正则化特征选择的零样本分类[J]. 巩萍,程玉虎,王雪松. 中国矿业大学学报. 2015(06)
[9]聚类算法研究[J]. 孙吉贵,刘杰,赵连宇. 软件学报. 2008(01)
硕士论文
[1]基于属性学习的零样本图像分类研究[D]. 乔雪.中国矿业大学 2016
本文编号:3334836
【文章来源】:中国矿业大学江苏省 211工程院校 教育部直属院校
【文章页数】:76 页
【学位级别】:硕士
【部分图文】:
属性学习示意图
4基于条件变分编码器与领域自适应的零样本学习45图4-8N的取值对实验分类结果的影响Figure4-8TheinfluenceofNontheresultsofclassification同理由图可知对于AWA1和AWA2数据集,当N取值为200时分类效果最好。因为这两个数据集的测试类类别相对较少,所以训练类中的样本相比CUB数据集较多,有利于模型能够深层次的挖掘样本数据的特征分布规律,同时也能学习到训练类别特征与语义属性之间的内在联系,因此生成模型不需要生成太多测试类样本就可以充分的表达测试类的特征,故能够很快收敛。4.3.4损失函数收敛性分析损失函数是衡量评估一个模型好坏最直观的方法,如果预测值与实际值偏离较远,损失函数值越大;反之,损失函数值越小,所以损失函数在模型训练分析中必不可少。图4-9、图4-10、图4-11分别为三个不同数据集的损失函数trainloss曲线,其中图像横坐标为模型迭代次数,纵坐标为损失函数值。图4-9AWA1数据集损失曲线Figure4-9theLosscurveofAWA1datasets图4-10AWA2数据集损失曲线Figure4-10theLosscurveofAWA2datasets
4基于条件变分编码器与领域自适应的零样本学习45图4-8N的取值对实验分类结果的影响Figure4-8TheinfluenceofNontheresultsofclassification同理由图可知对于AWA1和AWA2数据集,当N取值为200时分类效果最好。因为这两个数据集的测试类类别相对较少,所以训练类中的样本相比CUB数据集较多,有利于模型能够深层次的挖掘样本数据的特征分布规律,同时也能学习到训练类别特征与语义属性之间的内在联系,因此生成模型不需要生成太多测试类样本就可以充分的表达测试类的特征,故能够很快收敛。4.3.4损失函数收敛性分析损失函数是衡量评估一个模型好坏最直观的方法,如果预测值与实际值偏离较远,损失函数值越大;反之,损失函数值越小,所以损失函数在模型训练分析中必不可少。图4-9、图4-10、图4-11分别为三个不同数据集的损失函数trainloss曲线,其中图像横坐标为模型迭代次数,纵坐标为损失函数值。图4-9AWA1数据集损失曲线Figure4-9theLosscurveofAWA1datasets图4-10AWA2数据集损失曲线Figure4-10theLosscurveofAWA2datasets
【参考文献】:
期刊论文
[1]基于生成对抗网络的零样本图像分类[J]. 魏宏喜,张越. 北京航空航天大学学报. 2019(12)
[2]用于图像分类的卷积神经网络中激活函数的设计[J]. 王红霞,周家奇,辜承昊,林泓. 浙江大学学报(工学版). 2019(07)
[3]一种卷积神经网络的稀疏性Dropout正则化方法[J]. 周安众,罗可. 小型微型计算机系统. 2018(08)
[4]一种基于直推判别字典学习的零样本分类方法[J]. 冀中,孙涛,于云龙. 软件学报. 2017(11)
[5]基于KL散度的用户相似性协同过滤算法[J]. 王永,邓江洲. 北京邮电大学学报. 2017(02)
[6]基于最大分布加权均值嵌入的领域适应学习[J]. 臧绍飞,程玉虎,王雪松. 控制与决策. 2016(11)
[7]基于样本局部判别权重的加权迁移成分分析[J]. 臧绍飞,程玉虎,王雪松. 中国矿业大学学报. 2016(05)
[8]基于属性关系图正则化特征选择的零样本分类[J]. 巩萍,程玉虎,王雪松. 中国矿业大学学报. 2015(06)
[9]聚类算法研究[J]. 孙吉贵,刘杰,赵连宇. 软件学报. 2008(01)
硕士论文
[1]基于属性学习的零样本图像分类研究[D]. 乔雪.中国矿业大学 2016
本文编号:3334836
本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/3334836.html