[1]杨梦铎,栾咏红,刘文军,等.基于自编码器的特征迁移算法[J].智能系统学报,2017,12(6):894-898.[doi:10.11992/tis.201706037]
YANG Mengduo,LUAN Yonghong,LIU Wenjun,et al.Feature transfer algorithm based on an auto-encoder[J].CAAI Transactions on Intelligent Systems,2017,12(6):894-898.[doi:10.11992/tis.201706037]
点击复制
《智能系统学报》[ISSN 1673-4785/CN 23-1538/TP] 卷:
12
期数:
2017年第6期
页码:
894-898
栏目:
学术论文—机器学习
出版日期:
2017-12-25
- Title:
-
Feature transfer algorithm based on an auto-encoder
- 作者:
-
杨梦铎1, 栾咏红1, 刘文军1, 李凡长2
-
1. 苏州工业职业技术学院 软件与服务外包学院, 江苏 苏州 215104;
2. 苏州大学 计算机科学与技术学院, 江苏 苏州 215006
- Author(s):
-
YANG Mengduo1, LUAN Yonghong1, LIU Wenjun1, LI Fanzhang2
-
1. Department of Software and Service Outsourcing, Suzhou Vocational Institute of Industrial Technology, Suzhou 215104, China;
2. School of Computer Science and Technology, Soochow University, Suzhou 215006, China
-
- 关键词:
-
自编码器; 特征迁移; 深度网络; 深度学习; 图像分类; 中级图像特征; 视觉识别; 大规模数据集
- Keywords:
-
auto-encoder; feature transfer; deep network; deep learning; image classification; mid-level image representation; visual recognition; large-scale datasets
- 分类号:
-
TP181
- DOI:
-
10.11992/tis.201706037
- 摘要:
-
近年来,栈式自编码网络(stacked auto-encoder,SAE)在大规模数据集上表现出优异的图像分类性能。相对于其他图像分类方法中手工设计的低级特征,SAE的成功归因于深度网络能够学习到丰富的中级图像特征。然而,估计上百万个网络参数需要非常庞大的带标签的图像样本数据集。这样的性质阻止了SAE在小规模训练数据上的许多应用。在这篇文章中,提出的算法展示如何将SAE在大规模数据集上学习到的图像表示有效地迁移到只有有限训练数据的视觉识别任务中。实验部分设计了一个方法来复用在MNIST数据集上训练得到的隐藏层,以此计算在MNIST-variations数据集上的中级图像表示。实验结果展示了尽管两个数据集之间存在差异,但是被迁移的图像特征能够使得模型的分类性能得到极大的提升。
- Abstract:
-
The stacked auto-encoder (SAE) has recently shown outstanding image classification performance in large-scale datasets. Relative to the low-level features of artificial design in other image classification methods, the success of SAE is its deep network that can learn rich mid-level image features. However, estimating millions of parameters requires a very large number of annotated image samples, and this prevents many SAE applications to small-scale training data. In this paper, the proposed algorithm shows how to efficiently transfer image representation learned by SAE on a large-scale dataset to other visual recognition tasks with limited training data. In the experimental section, a method is designed to reuse the hidden layers trained on MNIST datasets to compute the mid-level image representation of MNIST-variation datasets. Experimental results show that, despite differences in image datasets, the transferred image features can significantly improve the classification performance of the model.
备注/Memo
收稿日期:2017-06-10;改回日期:。
基金项目:国家自然科学基金项目(61672364).
作者简介:杨梦铎,女,1989年生,讲师,博士,主要研究方向为模式识别与机器学习;栾咏红,女,1968年生,副教授,主要研究方向为强化学习;刘文军,男,1981年生,讲师,博士,主要研究方向为无线传感网络与算法分析。
通讯作者:杨梦铎.E-mail:mengduoyang@163.com.
更新日期/Last Update:
2018-01-03