基于多任务迁移学习的人脸美丽预测研究
发布时间:2021-12-22 21:35
人脸美丽预测是研究如何让计算机具有与人类相似的人脸美丽判断或预测能力。目前,人脸美丽预测存在数据样本少、评价指标不明确、训练深度网络容易过拟合等问题。多任务迁移学习(Multi-task Transfer Learning,MTTL)利用源域和相关辅助任务的额外信息,提高主任务性能。本文提出基于多任务迁移学习的人脸美丽预测研究,主要研究内容如下:(1)人脸美丽预测方法多采用单任务学习,忽略了相关任务的影响;多任务学习(Multi-task Learning,MTL)利用相关任务的辅助信息提高主任务性能。因此,本文将人脸美丽预测作为主任务、性别识别作为辅助任务,依托VGG16、VGG19和Resnet50网络,构建了多任务学习人脸美丽预测模型,并对比了不同模型人脸美丽预测结果。实验结果表明,性别识别辅助任务为人脸美丽预测主任务提供了更丰富的浅层特征,多任务学习的人脸美丽预测准确率优于单任务学习。(2)针对人脸美丽预测数据量较小、训练深度网络易过拟合的问题,本文通过构建多任务迁移学习人脸美丽预测模型,结合人脸美丽预测和性别识别,利用在Imagenet上预训练的模型参数实现多任务迁移学习。为...
【文章来源】:五邑大学广东省
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
单任务学习与多任务学习的示意图
目前,参数共享机制可分为硬共享、软共享、分层共享和稀疏共享四种。硬共享是深度多任务学习中应用最广泛的机制,所有任务共享网络结构和参数,再为每个任务设定特定任务层获取任务的特定表示。Baxter等[59]证明了硬共享机制可有效降低过拟合的风险,但处理弱相关任务时表现较差。软共享机制是每个任务都学习自己的网络结构和参数,在进行多任务联合训练过程中,各任务之间互相共享参数,通过对模型参数距离进行正则化保障参数的相似性[60];软共享机制的约束很大程度上受传统多任务学习正则化技术的影响且其参数量较多。分层共享即网络底层学习简单任务、高层学习较困难任务,从底层和高层中共享信息,其所需参数少但分层结构设计需要大量人工经验设计。稀疏共享是一种最新的参数高效共享机制,通过迭代幅度剪枝(Iterative Magnitude Pruning,IMP)技术,可实现自动学习多任务的稀疏共享结构,不需要任务相关性的先验知识。该方法不仅能减少参数,还能避免负迁移,但其训练时间长[61]。图2-2分别为多任务学习的参数硬共享、软共享、分层共享和稀疏共享机制结构示意图。2.3 多任务迁移学习
迁移学习利用一些相关任务或领域中存在的标签数据来处理缺少标签数据的场景,将在解决源域任务时获得的知识存储起来,并应用于感兴趣的目标域问题,如图2-3所示。迁移学习的目的是,迁移已有的知识来解决目标领域中仅有少量有标签样本数据甚至没有的问题。在机器学习领域,迁移学习可以理解为学会学习(Learning to learn)、终身学习(Life-long learning)、知识迁移(Knowledge transfer)、归纳迁移(Inductive transfer)、上下文敏感学习(Context-sensitive learning)和元学习(Meta-learning);还与机器学习的其他几个领域密切相关,例如,自学习、多任务学习、域适应等。文献[46]对迁移学习给了一个正式定义,明确了两个概念:域和任务。域D=(c,P(X))包含一个特征空间c和一个边缘概率分布P(X),其中X={x1,,xn}∈c。源域是迁移对象,具有大量的标注数据和先验知识;目标域是被迁移对象,其标注数据少。任务由域的标注空间Y和目标预测函数F组成,表示为T=(Y,F);其中,F表示为条件概率分布P(y|x),可从训练数据中学习得到。
【参考文献】:
期刊论文
[1]基于双激活层深度卷积特征的人脸美丽预测研究[J]. 甘俊英,翟懿奎,黄聿,曾军英,姜开永. 电子学报. 2019(03)
[2]结合局部二值模式和卷积神经网络的人脸美丽预测[J]. 甘俊英,谭海英,项俐,翟懿奎,曾军英. 信号处理. 2019(01)
硕士论文
[1]组稀疏多任务学习方法及其应用研究[D]. 孙怡.南京邮电大学 2019
本文编号:3547134
【文章来源】:五邑大学广东省
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
单任务学习与多任务学习的示意图
目前,参数共享机制可分为硬共享、软共享、分层共享和稀疏共享四种。硬共享是深度多任务学习中应用最广泛的机制,所有任务共享网络结构和参数,再为每个任务设定特定任务层获取任务的特定表示。Baxter等[59]证明了硬共享机制可有效降低过拟合的风险,但处理弱相关任务时表现较差。软共享机制是每个任务都学习自己的网络结构和参数,在进行多任务联合训练过程中,各任务之间互相共享参数,通过对模型参数距离进行正则化保障参数的相似性[60];软共享机制的约束很大程度上受传统多任务学习正则化技术的影响且其参数量较多。分层共享即网络底层学习简单任务、高层学习较困难任务,从底层和高层中共享信息,其所需参数少但分层结构设计需要大量人工经验设计。稀疏共享是一种最新的参数高效共享机制,通过迭代幅度剪枝(Iterative Magnitude Pruning,IMP)技术,可实现自动学习多任务的稀疏共享结构,不需要任务相关性的先验知识。该方法不仅能减少参数,还能避免负迁移,但其训练时间长[61]。图2-2分别为多任务学习的参数硬共享、软共享、分层共享和稀疏共享机制结构示意图。2.3 多任务迁移学习
迁移学习利用一些相关任务或领域中存在的标签数据来处理缺少标签数据的场景,将在解决源域任务时获得的知识存储起来,并应用于感兴趣的目标域问题,如图2-3所示。迁移学习的目的是,迁移已有的知识来解决目标领域中仅有少量有标签样本数据甚至没有的问题。在机器学习领域,迁移学习可以理解为学会学习(Learning to learn)、终身学习(Life-long learning)、知识迁移(Knowledge transfer)、归纳迁移(Inductive transfer)、上下文敏感学习(Context-sensitive learning)和元学习(Meta-learning);还与机器学习的其他几个领域密切相关,例如,自学习、多任务学习、域适应等。文献[46]对迁移学习给了一个正式定义,明确了两个概念:域和任务。域D=(c,P(X))包含一个特征空间c和一个边缘概率分布P(X),其中X={x1,,xn}∈c。源域是迁移对象,具有大量的标注数据和先验知识;目标域是被迁移对象,其标注数据少。任务由域的标注空间Y和目标预测函数F组成,表示为T=(Y,F);其中,F表示为条件概率分布P(y|x),可从训练数据中学习得到。
【参考文献】:
期刊论文
[1]基于双激活层深度卷积特征的人脸美丽预测研究[J]. 甘俊英,翟懿奎,黄聿,曾军英,姜开永. 电子学报. 2019(03)
[2]结合局部二值模式和卷积神经网络的人脸美丽预测[J]. 甘俊英,谭海英,项俐,翟懿奎,曾军英. 信号处理. 2019(01)
硕士论文
[1]组稀疏多任务学习方法及其应用研究[D]. 孙怡.南京邮电大学 2019
本文编号:3547134
本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/3547134.html