论文部分内容阅读
近年来,随着信息技术的飞跃发展,人工智能迅速崛起,机器学习作为人工智能的核心技术,吸引了来自计算机科学、物理学、神经科学、认知科学等不同领域的关注,并逐渐应用于社会、经济等各个方面,影响到人们的日常生活之中。然而,传统的机器学习算法在实际应用中如果要取得良好的效果,需要大量的训练数据集,同时模型训练的时间代价也较大,以上因素导致机器学习的应用领域受到限制。针对这一问题,机器学习领域中提出一种称为多任务学习的方法。多任务学习可以通过同时学习多个任务之间的关联性从而降低模型对数据量的要求,并且减少训练所需要的时间。随着人们在多任务学习领域的不断研究和探索,多任务学习相关的模型已经在一些特定领域问题中起到决定性的作用,如计算机视觉、自然语言处理等。然而,现有的多任务模型面临的一个挑战是,如何平衡任务自身特性与其他任务之间共性的关系。基于以上考虑,本文提出了两种基于隐变量的多任务模型:基于期望最大化的隐变量多任务模型和基于神经网络的隐变量的多任务模型。本文所提出的模型区别于基于正则化的多任务学习模型和基于深度学习的多任务学习模型,而是通过隐变量来表示任务与任务之间的关系。并在公开的数据集school data和SARCOS的回归任务中取得了比之前算法更好的效果。本文首先详细地介绍模型实现的流程以及计算方法,从理论上分析了两种模型的有效性。并证明了两种隐变量模型可以与其他的多任务模型结合从而提高模型整体算法的泛化能力。然后,分别在模拟数据和真实数据上进行了实验,通过与不使用隐变量的模型对比,证明了隐变量模型的优势:在不影响原算法的时间复杂度的基础上加快了模型的收敛能力。最后,对两种隐变量模型未来可能进行的拓展以及衍生的方向进行了探讨。