\ 研究与开发 i 冈2深度神绛 1)NN卡Il 水质上是多层ANN的模 ,但深度神经 网络和传统ANN在权值的初值选取和训练机制等方 而截然不 主要在丁权值的预先训练 法上 南于 【)NN模 f1 1数过多,权值的数 将会 爆炸性增大. 输人的过・ 像素为1KxlK的 像,隐含层有lM 个节点,比这・层就有J0 个十义重需 训练 有别于 传统ANN的l;1)学习;深度神经网络的 是采JH深 度学 1.2深度学习 深 学 J(Deep I,eal・lling,DL)址Geoffrey Himol1 等人 捉…的, 2006年提…的 足 督数据 建、 多J I l络的一个有效方法,}tintt111证明了多 隐减层的人 l}】经网络具仃优异的特 学习能力,学 习 ̄tJ,fiJ的特 埘数据有更木质的刻【fI6,从I『l『有利于可 视化或分 ;深度神经网络 训练上的难度,可以通过 逐 颅圳练 。(1ayer—WiS(-I1 一trainillg)米 r效克服,逐 层倾圳练址通过尤监督学习(Unsu!)ervised learning)实 的 (,eoffl-ey Hintot1的训练过程,分 两步,一足 每i欠=圳 一J 刚络,二是悯优使原始输入的x向J 生 n 的高级 爪I・和该高级表示・・向下 成fi9 x 尽可能 一敛 法址逐层提前预先训l练蚀一J 的权值,并H. 只 使川尢 己的样小(无监督训练) 、与每一层都 预先圳练 J,q-,再使用少量的仃怀 样小进行有监督 的惮度下降, 成微捌 时・巾^i大小为256x256像素的 片,深度学习模 型fn1 3 fi』i: 2 自编码器 l I编 搽 足一个典型的前馈}l}I绛 络,它的口标 就足学 一种对数据集的 缩且分 的表示方法 (编码思想) 囝 现代计算机2017.12中 3深度 、 : J1=l!J 2.1自编码器的基本模式 n编码器南编 器l干lI解 lI^j部分组成 4 所爪将标记样木输入编 器. 刘输入的 ,J 斛 的输 输人f}I似( 允许的范 f ), 就iil!l9 J解码器是正确的 川‘以嗵过 整编码 fll晰 的参数,使,导重构 最小 埘尤 签数据, 的 米源就址直接重构后与 输人I11比得到编码 圳约:f1I部署的时候使川,ff 5 络 是 训练的 f{1f候使J}J 编码 网络的【I的址拽刮一个给定的输入 的J 缩 示 I 二 三_ 4自编 器模 2.2自编码器实现原理 『l编码器 层构成,I 1为 始输入层,lJ2为编 -HA,1 3为解码层,/』l I5断 爪 』 1 r Ll和I 3 J If-fI}l 数相同,I 2层神 元数 小f I 1 h编码器通过输入 一个编码器函数 /‘,输… ,Jj、=八、);解码器 数g,输… ( )=g( ,’( )) 酣 尤 d0'J,训练样小集 lJl …∈ .网络理想fI怀址 输f 精确等丁输入仉.. ・般f 难达到,所以满 , h (r) r 输…是对输入的 输入:.r= ” ’ ”.… ” } 编伊}:Y=『j f.( ), …= 拟火函数: (r' ’)= 1/ (v)一 l 1职究与开发 / / 中增加稀疏惩罚约束条件,模式如同6所示 稀疏惩罚 冈6稀疏自编码器模式 输入: La Input 编码:h=W X 损失函数:,J( ; )=I 一xlll!+A∑l^,I 图5白编码器结构 3 仿真 使刚MATLAB R20 1 5a版本的Autoen )‘lerD 卜 sExample调试.对NIMIST为训练样本集,样本集是 28x28像素的手写数字 像。部分样本如图7所示、 深度学习是基于神经网络,深度学习创造性在自 编码和稀疏性。自编码是深度学习把原始输入当作训 练数据,输出还是训练数据,这样似如中间神经元数比 原始输入数据少,就会对原始输入数据起了个压缩的 作用。稀疏性是巾问神经元多一点,为防止训练过拟 合,可以加一个,假设每个训练数据都激活尽量少 的中间层神经元(人类大脑对每个输入不可能所有神 经元都起反应,肯定也是少量神经元有反应)。训练m 来的模型就可以很好的表示原始数据,再对训练好的 ■囵囫囵口 圈围■囝一 日囝园一圆 圆一目一目 『殳J 7部分样本冈 数据在有监督的数据上做进一步训练,可以满足新的 需求。稀疏自编码模型是一种无监督学习模型,L【L可 以对数据进行降维。 神经网络学习到的实际上并不是一个训练数据到 标记的“映射”,而是去学习数据本身的内在结构和特 fil((也正是因为这,隐含层也被称作特征探测器(fea. 建立第1个自编码器,输入为无标记样本,每个样 ture detector))。通常隐含层巾的神经元数目要比输入 层的少,这是为了使神经网络只去学习最重要的特征 并实现特征的降维,如假设输入X是一幅l0×10的图 像(100像素),n=100,即IJI层的sl=100,在L2层的s2= 50,Y∈R“ ,本是784维。输j JI定为100(一般输fII要比输入小,这 样才能起来压缩提取输入特征的目的)。建立前馈神 经网络的模型如 8所示。提取j_I{来的特征可视化如 图9所示 因为隐藏层只有50个神经元,网络被迫学 HIdden Outpu1 习压缩表示的输入 获得隐藏一个神经元激励函数 n ∈ ,它需要重新构建100个像素的输人X。这是简 单的自编码器.类似于PCA模型(传递函数不使用sig. moid而使用线性函数,就是PCA模型)。自编码器的 隐藏层的神经 元数日大于输入数量。可以使用稀疏 约束规则完成。 匝 2.3稀疏自编码器(Sparse Autoencoder) 稀疏自编码器 I是在原型自动编码器的代价 数 【矧8自编码器结构 女¨果自编码器l的输出与输入的误差达到要求, 现代计算机2017.12中 ④ \研究与开发 即可确定自编码器l对特征的提出有效,完成编码器 训练 nr视化自动提取的特征如I 所示 lo0 11深度神经『稠络坝J l*1- 9自动提取特征 用同样的方法完成第二个自编码器的训练。使用 第一层的自编码器的输…作为输入?模型如 l0 所示。 Hidden Output =_I3羞舌 1 2 3 4 5 6 7 8 9 O 4 结语 自编码器是在特征层次结构的深度模型巾以无监 督特征学习为目的,使JH逐层初始化的训练方法来建 立问题模型。仿真巾可以看到存深度神经网络的应川 深度网络的最后一层是级联了一个Soflmax分类 器,这一层是有监督学习,使用验证数据集(有标记样 _小)冉进行0—9的l0类的模式识别。Softmax是训练 多分类器,Sigmoid函数只能分两类,而Soflnmx能分多 巾,使川的隐藏层数,以及需要使用多少个白编码器才 能达到对象特征的有效提取,这些郁是根据经验及应 用的误差需求进行反复实验测试来得到,目前还没有 比较完善的公式及推理 深度网络巾的白编码器是通过学习输入数据的结 构得到初值,这个初值更接近全局最优,从而能够获得 更好的效果。大数据的训练不易造成过拟合 类,Softmax是Sigmoid的扩展 最后根据2个编码器 提取的特征(权值),重新组建深度神经网络模型ln1 Il所示 根据如 12所示的混淆矩阵,可以看到数字识别 正确率为99.5% 使用自编码器学习提取的特征来建 立模式识刖系统,系统具有很好的识别率。 参考文献: Il1张光建.基于神经网络的钢筋混凝土碳化深度预测研究IJ1.成都航空职业技术学院学报,2016,Ol:67—69+77. 【2IHINrrON G,OSINDERO S, I'HE Y.A Fast Learning Algm’ithm if)r I)eet)Belief NetslJ].NEU RAL Conlputation,2006 1 8(7):1 527一 l554. I3]BEN(;IO Y LAMBI IN P,POI OVICI I),et.Greed)r l,ayer—Wise Training of Deep Networks[C].Pro(‘of the 1 2th Annual c(II1f PI1l (111 Net,,’al hd'm’1nation Processing Syste,11.2006:1 53—1 60. I4]Rumelhart D E,Hintc'n G E,Williams I J.Learnilig Rep—Resentations hy Back—Propagating Et.r()rslJj.NatuI’P.1986.323:533—536. I5]Luo Xuxi,I i Wan.A Novel Efficient Method for]'raining Sparse Auto—EncoderslC J.PI ( .ofthe 6th Inte J‘natiol Jal CmIgl s…1 IInage and Signal Processing.2013:1019—1023. (下转第 l页) ④ 现代计算机2017.12中 \\ \ 图彤图像 Infrared Image Target Extraction Based on AKAZE and MSRCR Enhancement WANG Li-li.XIA Fei (Shanghai University ofElectric Power,Shanghai 200090) Abstract: Aiming at the problem that the infrared thermal image taken on mobile platform is deviated,the template and the target cannot match,pro— poses the method of extracting the infrared image object with the AKAZE algorithm and MSRCR image enhancement.The method uses MARCR to enhance the infrared image,uses frequency domain low pass filter to remove the image noise,uses AKAZE to carry out fast multi—scale feature extraction,and generates the feature points descriptors.FLANN fast nearest neighbor proximity search algorithm is used to quickly match the feature points.Using the random sampling consistency algorithm of RANSC,the mismatched feature is eliminat— ed.This method avoids the shortcomings such as large computational complexity,matching error and unclear target contour,which can help to realize ixed—poifnt target infrared detection on mobile platform. Keywords: AKAZE Features;Infrared Thermal Image;FLANN Fast Nearest Neighbor Proximity Search;Feature Matching;Low Pass Filtering (上接第44页) 作者简介: 张光建(1978一),女,四川I简阳人,硕士,讲师,研究方向为计算机视觉、机器学习 收稿日期:2017—10—10 修稿日期:2017—1l_22 I mplementation of Deep Neu ral Network Based on Sparse Automatic Encoder ZHANG Guang-j ian (Department ofInformation Engineering,Sichuan College ofArchitectural Technology,Deyang 618000) Abstract: In supervised learning of neural networks,a large number of label training set are needed.The success of the learning system depends on the accuracy of the training set label feature,but the artiifcial labeled feature is time—consuming and laborious.The sparse autoencoder is an unsupervised learning method,which can automatically extract the features of samples by learning the unlabeled samples.Simulation of sparse autoencoder,it can be very good to extract the characteristics of the input of the unlabeled samples,which will greatly improve the range and accuracy of the application of machine learning system. Keywords: Machine Learning;Deep Neural Network;Artiifcial Neural Network;Deep Learning;Sparse Autoencoder;Deep Network Deep Autoencod— er(DAE) ① 现代计算机2017.12中