2024年2月28日发(作者:东门洮)
新技术新工艺2021年
第1期图像识别中的卷积神经网絡应用研究*张玉红】,白韧祥】,孟凡军2,王思斯3,吴
彪3(1吉林建筑大学电气与计算机学院,吉林长春130118$.长春设备工艺研究所,吉林
长春130012;3.吉林省乔富建设股份有限公司,吉林长春130000)摘要:传统图像识别方法存在自适应能力弱的问题,如果待识别对象存在较大残缺或者其他外在噪
声干扰,模型则无法获得理想结果#最早在图像处理中成功应用的深度学习是人工智能中非常重要的部
分#在图像处理中,带有卷积结构的多层网络的卷积神经网络被加拿大教授及其小组成员提出并优化。
在其过程有了突破性发展的情况下,利用卷积神经网络完成了图像识别的设计用以增加模型对图片的识
别准确率和在线运算速度,同时减少图像大量特征的提取工作,在识别系统中通过运用随机梯度下降法对
系统进行优化,加快模型收敛#根据试验结果,采用卷积神经网络设计的训练模型,对数据集识别的准确
率可达到96%,为大规模图像分类更好地发展提供基础支持#关键词:深度学习;神经网络;图像处理;梯度下降;卷积层;池化中图分类号:TP
3
文献标志码:AResearch
on
Application
of
Convolution
Neural
Network
in
Image
RecognitionZHANG
Yuhong1
,
BAI
Renxiang1
,
MENG
Fanjun2
,
WANG
Sisi3
,
WU
Biao3(1.
School
of
Electrical
Engineering
and
Co7puter,
Jilin
Jianzhu
University,
Changchun
130118,
China;2.
Changchun
Equip7ent
Technology
Research
Institute,
Changchun
130012
,
China;3.
Jilin
Qiaofu
Construction
Co.
,
Ltd.
,
Changchun
130000
,
China)Abstract:
The
traditional
irniage
recognition
rniethod
had
the
probleirn
of
weak
adaptive
ability
,
if
the
object
to
be
recog-
nizedhadlargedefec5soro5herex5ernalnoisein5erference s5successful
applicaionofdeeplearn5hecaseofi7agepro-
cessing
convolu5ionneuralne5work
wihconvoluions5ruc5ure
wasproposedandopi7izedby
Canadianprofessorandhis
5ea7
5hebreak5hroughdevelop7en5of5heconvoluionalneuralne5work
5hedesignofi7agerecogni5ion
wasco7ple5edbyusing5heconvolu5ionneuralne5work5oincrease5heaccuracyof5he
7odelrecogniionof5hepic5ureand
5hespeedofonlineoperaion
and5oreduce5heex5racion
5heidenifica5ion
sys5e7
5hes5ochasicgradien5descen57e5hodwasused5oopi7ize5hesys5e7andaccelera5e5heconvergenceof5he7odel.
According5o5heexperi7en5alresuls
byusing5he5raining
7odeldesignedbyconvoluionneuralne5work
5heaccuracyof
da5ase5recogniioncouldreach5o96%
whichprovidedbasicsuppor5for5hebe5erdevelop7en5oflarge-scalei7ageclassi-
ds:
deeplearning
neuralne5works
i7ageprocessing
gradien5descen5
convolu5ionlayer
pooling当今社会的计算机技术不断发展,图像识别技
图像过拟合现象#刚一问世,卷积神经网络就在小
术在许多领域中得到了应用#
1950年,手写的字体
规模图片集上获得了当时世界上最好的成绩,但受
可以通过图像识别技术进行识别#
1965年,人们开
始着手数字化图像领域的识别研究#数字化图像有
限于当时的理论及技术水平,在随后相当长一段时
间内,卷积神经网络领域没有得到太多的进展#
2012年10月,加拿大教授Hinton与自己的小组成
下述几种优势:便于缩减存储空间,不易失真,图片
处理起来比较容易等#这些优点促进了该领域的发
员在I7age
Net竞赛中应用了卷积神经网络技术,
这使他们获得了竞赛的最好成绩#通过这次竞赛他
们使神经网络在图像识别领域有了实质性的突破,
这次之后,卷积神经网络模型能够识别和理解一般
展#目前对图像识别的方法有统计模式识别、结构
模式识别、模糊模式识别和深度学习#深度学习是人工智能中十分重要的部分,且最
早在图像处理中得以成功应用。在1989年加拿大
的自然图片的内容⑵。针对图像识别,传统的识别方法包括统计模式
识别、结构模式识别和模糊模式识别#这些传统的
教授Yann
Le
Cun与其小组成员提出卷积神经网
络并得以应用#卷积神经网络是带有卷积结构的多
层网络,它解决了深层的神经网络占用内存和内部
参数多的问题,同时也缓解了模型在训练时出现的
52识别方法有自适应性能差的缺点,如果待识别的图
像存在比较大的残缺或者有比较强的噪声干扰,则
《新技术新工艺》试验与研究
试验传统的识别方法就无法得到预期的结果。而深度学
习则刚好弥补了传统识别方法的这些劣势,它大大
研究2)池化层。池化层的作用主要是减少参数的数
量,提高计算速度,并增强所提取特征的鲁棒性,同
提高了图像识别准确率和模型在线运算速率,并且
时防止过拟合现象的发生,池化层一般放于卷积层
之后,缩减模型的大小,降低特征维度。降低了提取待识别图像特征的工作「3(。通过综合考
虑,本文在图像识别中加入了卷积神经网络技术。最常见的2种池化层的形式:最大池化和均值
池化。1卷积神经网络卷积神经网络的结构是根据大脑神经元而设
计,其本质就是将一个个简单的神经元连起来,利用
以最大池化为例,池化层输入的4X4矩阵,选
用的池化层尺寸大小为2X2,池化步长为2,则最后
可以得到2X2的池化输出(见图3),图中粗线方框
代表一次最大池化运算。429
505261
7926336536551657池化层输出矩阵每个底层的神经元提取图像的信息,然后将许多这
样的神经元结合起来提取一个十分复杂的图像信
息,最终获得图像的高级语义特征⑷。图片中提取
的高级语义特征种类越多,则越可以体现图片的主
要内容,同时反映出对图片的识别和理解能力也越
强。卷积神经网络结构主要包括卷积层、池化层和
池化层输入矩阵图3池化层的输出3)
全连接层。
卷积层和池化层的工作就是提取
全连接层。1)卷积层。卷积层的运算是卷积神经网络的重
特征,并减少原始图像带来的参数。然而,为了生成
最终的输出,需要应用全连接层来生成一个等于所
需要的类的数量的分类器。要组成部分,其主要作用是图像特征的提取和抽象#
而卷积层的核心则是卷积运算,卷积运算时,图像应
全连接层的工作原理和之前的神经网络学习很
类似,需要把池化层输出的张量重新切割成一些向
该先转换成数值矩阵,然后再进行运算。假定有一
个尺寸为6X6的图像,每一个像素点里都存储着图
量,乘上权重矩阵,加上偏置值,然后对其使用Re-
LU激活函数,用梯度下降法优化参数即可。像的信息。定义一个卷积核(相当于权重),用来从
图像中提取一定的特征(见图1)。卷积核与数字矩
本文设计的神经网络结构包括5个卷积层、3
阵对应位相乘再相加,得到卷积层输出结果(见式
1)#个池化层和3个全连接层&6(。待识别图片可以通
过卷积层和池化层来提取图片中的特征,而全连接
层是把二维的特征图变为一维的特征向量。卷积神
经网络模型在预训练时存在2个过程,即前向传播
与反向传播。卷积核特征值1)前向传播。每一层输出的特征如下:图1特征值的卷积运算y
=
f,.八
(1)o18X
1 +
54X0
+
51
X1
+
55X0
+ 221
X1
+
75X0
+35X
1
+
24X0
+
204X
1
=
429
式中,y()是卷积层的输出*
f(
是非线性的激活
卷积核的取值在没有以往学习的经验下,可由
函数*
@是输入该层的特征图集*
4是该层卷积核
的权值*
.是卷积运算*
#(31)是卷积层输入的特征
函数随机生成,再逐步训练调整。当所有的像素点
都至少被覆盖一次后,就可以产生一个卷积层的输
出(卷积步长为1)(见图2)。1S54221向量;:是偏置。2)反向传播。通过前向传播对样本的预测与网
5042397S113244133S5络期望值的输出来确定模型内部的参数。定义网络
的目标函数:951(W2452352513C€3856X6图像卷积核
图2卷积层的输出卷积层输出=1式中,6(#)为损失函数*
@为样本数*
y为期望输
"J(4,)
=
1,6(b,$) (3)出*y为样本输出。应用梯度下降法对神经网络里
每一层的参数4和:求偏导,得到更新之后的网络
参数值,让实际的网络输出更加接近期望值。卷积层输出值越高,就说明匹配程度越高,越能
表现该图片的特征#《新技术新工艺》试验与研究53
新技术新工艺2021年
第1期2试验准备与结果分析本文基于开源框架TensorFlow和Keras进行
试验研究。试验配置:i5-4200U
CPU
和
AMD
Radeon
HD
8600M
series
显卡'7(
#2.1数据集数据集共分为3类,包括60张训练模型优化模
型参数的训练集、10张检测训练模型每次训练结束
后训练效果的验证集和10张测试图样识别模型的
测试集#选择2张图样,其中用红绿蓝三色图作为
正确的图样(见图4);用非红绿蓝三色图作为错误
的图样(见图5)。分别在不同角度拍摄40张照片,
每张图样取30张拍摄的照片作为训练网络参数的
训练集,再各取5张照片作为检测训练模型训练结
果的验证集,则每张图样剩余的5张照片作为测试
集#图6训练模型流程图图4用作正确的图样图7图片识别流程图图5用作错误的图样在训练开始之前,先加载需要训练的图片,对训
练集进行预处理,包括图片归一化、图片通道统一
2.2试验过程本次训练中通过40个epoch来更新学习率,在
训练开始时设一个较大的学习率,随着学习过程中
系统总误差的减小,学习率也逐渐减小,每当完成一
等,然后进行模型的搭建并进行训练,即开始前向传
播和反向传播,反向传播采用随机梯度下降法进行
优化,每完成一次优化则进行一次判断是否结果更
优,如果更优,则更新相关的权重,否则判断是否完
次epoch训练,将最佳权重保存至特定的文件,以便
后期神经网络模型的部署,训练过程中使用随机梯
度下降法对训练系统进行优化,同时使用7inibatch
训练加快模型收敛#训练模型流程图「8「12(如图6所
成所有epoch训练,如果未完成则返回训练模型继
续训练,否则整个模型训练完成#在
神经
网
络
模
型
预
测
中
!先
加
载
已
经
训
练 完
成
的模型参数,加载图片分类的标签值,以便模型后续
示。在完成40个epoch训练后,保存了训练中的最
佳权重,在模型预测中则直接调用已保存的最佳权
预测结果输出,然后在用户端传入需要分类的图片,
系统得到待识别的图片后,显示进行图片的预处理,
将相关的参数进行统
一
化
!使
用
已经
加
载的
神
经
网
重进行模型预测参数初始化,开始对图片进行预测#
待测图片识别流程图如图7所示#54《新技术新工艺》试验与研究
试验络进行预测,最后输出当前图片的识别结果,完成整
个图像识别的流程。2.3卷积神经网络的训练结果及分析研究但是面向大规模图像分类还有待提高,未来的工作
将进一步调整网络框架、网络内部优化学习更精确
的特征表达,使得该训练模型具有更好的应用前景#
本次设计的训练模型在训练过程中模型训练的
随着这一领域理论的不断深入研究,图像识别和理
解中的卷积神经网络应用将会有更好的发展。迭代次数最大为40,选用的块大小为128,通过采用
GPU模式来加速神经网络的训练,在训练模型中加
入了
Dropout正则化「13(对系统进行优化处理来防
止训练过程中发生过拟合现象,同时对数据集照片
参考文献[1(余凯,贾磊,陈雨强,等.深度学习的昨天今天和明天
进行图集扩充,如:旋转、缩放、翻转等,模型对扩充
以后的数据集在训练过程中也无发生过拟合现象#
由损失函数曲线图(见图8)可知,训练模型训练到
后期时,随着模型学习率逐渐降低,损失函数也保持
J
计算机研究与发展,2013,
50(9):
1799-1804.[2(刘建伟,刘媛,罗雄麟.深度学习研究进展[J(.计算机
应用研究,2014,
31(7):
1921-1930,
1942.[3(邢珍珍.卷积神经网络在图像处理中的应用研究[J(.
软件工程,2019,
22(6):
5-7.[4(常亮,邓小明,周明全,等.图像理解中的卷积神经网
稳定下降,当卷积神经网络的训练模型在迭代次数
达到25次时,损失函数的曲线就开始逐渐趋向于稳
定。而根据模型训练的准确率曲线图(见图9)可
络[J(.自动化学报,2016,
42(9):
1300-1312.[5(白琮,黄玲,陈佳楠,等.面向大规模图像分类的深度
知,在刚开始几次中,训练模型的准确率偏低,这是
由于模型训练迭代次数较少而导致的模型参数没有
得到最优化,不过在模型训练迭代次数逐渐增加的
卷积神经网络优化[J(.软件学报,2018,
29
(4):
1029-
10389[(李彦东,郝宗波,雷航.卷积神经网络研究综述[J(.计
算机应用
,
2016,
36(9)
2508-25659过程中,同时模型数据集的识别率也逐渐提高,当卷
积神经网络训练模型在更迭次数达到25次时,模型
的准确率曲线图也逐步趋于稳定。综合2张曲线图
[7(范望,韩俊刚,苟凡,等.卷积神经网络识别汉字验证
码[J(.计算机工程与应用,2018,
54(3):
160-165.[(杨真真,匡楠,范露,等.基于卷积神经网络的图像分
可知,该模型迭代25次时达到模型的最佳迭代次
数。通过采用一种基于卷积神经网络而设计的训练
模型,其准确率可达到96%
#类算法综述[J(.信号处理,2018,
34(12):
1474-1489.[(王振,高茂庭.基于卷积神经网络的图像识别算法设计
与实现[J(.现代计算机(专业版),2015(20):
61-66.[10(周志华.机器学习[M(.北京:清华大学出版社,
2016[10(
Ramalho
L.流畅的Python[M(.安道,吴珂,译.北
京:人民邮电出版社,2017.[12(
McClure
N.
TensorFlow
机器学习攻略(影印版)[M(.
南京:东南大学出版社,2017.[13(任义丽,罗路.卷积神经网络过拟合问题研究[J(.信
息系统工程,2019(5):
140-142.+国家自然科学基金资助项目(61705077)吉林省科技厅项目(2SF.2SF)
吉林省发展与改革委项目(2019C048-4.2020C021-5)
吉林省教育厅科研规划项目(JJKH20190853KJ,
JJKH20200274KJ)作者简介:张玉红(1977-),女,教授,博士,主要从事稀土上
3结语本文基于卷积神经网络AlexNet设计的图像
识别模型,对于小规模的图像分类,即使对数据加入
旋转、缩放、翻转,预测时仍然保持稳定的精确度#
转换发光及其在传感领域的应用等方面的研究。收稿日
期
2020-10-09责任编辑马爱文《新技术新工艺》试验与研究55
2024年2月28日发(作者:东门洮)
新技术新工艺2021年
第1期图像识别中的卷积神经网絡应用研究*张玉红】,白韧祥】,孟凡军2,王思斯3,吴
彪3(1吉林建筑大学电气与计算机学院,吉林长春130118$.长春设备工艺研究所,吉林
长春130012;3.吉林省乔富建设股份有限公司,吉林长春130000)摘要:传统图像识别方法存在自适应能力弱的问题,如果待识别对象存在较大残缺或者其他外在噪
声干扰,模型则无法获得理想结果#最早在图像处理中成功应用的深度学习是人工智能中非常重要的部
分#在图像处理中,带有卷积结构的多层网络的卷积神经网络被加拿大教授及其小组成员提出并优化。
在其过程有了突破性发展的情况下,利用卷积神经网络完成了图像识别的设计用以增加模型对图片的识
别准确率和在线运算速度,同时减少图像大量特征的提取工作,在识别系统中通过运用随机梯度下降法对
系统进行优化,加快模型收敛#根据试验结果,采用卷积神经网络设计的训练模型,对数据集识别的准确
率可达到96%,为大规模图像分类更好地发展提供基础支持#关键词:深度学习;神经网络;图像处理;梯度下降;卷积层;池化中图分类号:TP
3
文献标志码:AResearch
on
Application
of
Convolution
Neural
Network
in
Image
RecognitionZHANG
Yuhong1
,
BAI
Renxiang1
,
MENG
Fanjun2
,
WANG
Sisi3
,
WU
Biao3(1.
School
of
Electrical
Engineering
and
Co7puter,
Jilin
Jianzhu
University,
Changchun
130118,
China;2.
Changchun
Equip7ent
Technology
Research
Institute,
Changchun
130012
,
China;3.
Jilin
Qiaofu
Construction
Co.
,
Ltd.
,
Changchun
130000
,
China)Abstract:
The
traditional
irniage
recognition
rniethod
had
the
probleirn
of
weak
adaptive
ability
,
if
the
object
to
be
recog-
nizedhadlargedefec5soro5herex5ernalnoisein5erference s5successful
applicaionofdeeplearn5hecaseofi7agepro-
cessing
convolu5ionneuralne5work
wihconvoluions5ruc5ure
wasproposedandopi7izedby
Canadianprofessorandhis
5ea7
5hebreak5hroughdevelop7en5of5heconvoluionalneuralne5work
5hedesignofi7agerecogni5ion
wasco7ple5edbyusing5heconvolu5ionneuralne5work5oincrease5heaccuracyof5he
7odelrecogniionof5hepic5ureand
5hespeedofonlineoperaion
and5oreduce5heex5racion
5heidenifica5ion
sys5e7
5hes5ochasicgradien5descen57e5hodwasused5oopi7ize5hesys5e7andaccelera5e5heconvergenceof5he7odel.
According5o5heexperi7en5alresuls
byusing5he5raining
7odeldesignedbyconvoluionneuralne5work
5heaccuracyof
da5ase5recogniioncouldreach5o96%
whichprovidedbasicsuppor5for5hebe5erdevelop7en5oflarge-scalei7ageclassi-
ds:
deeplearning
neuralne5works
i7ageprocessing
gradien5descen5
convolu5ionlayer
pooling当今社会的计算机技术不断发展,图像识别技
图像过拟合现象#刚一问世,卷积神经网络就在小
术在许多领域中得到了应用#
1950年,手写的字体
规模图片集上获得了当时世界上最好的成绩,但受
可以通过图像识别技术进行识别#
1965年,人们开
始着手数字化图像领域的识别研究#数字化图像有
限于当时的理论及技术水平,在随后相当长一段时
间内,卷积神经网络领域没有得到太多的进展#
2012年10月,加拿大教授Hinton与自己的小组成
下述几种优势:便于缩减存储空间,不易失真,图片
处理起来比较容易等#这些优点促进了该领域的发
员在I7age
Net竞赛中应用了卷积神经网络技术,
这使他们获得了竞赛的最好成绩#通过这次竞赛他
们使神经网络在图像识别领域有了实质性的突破,
这次之后,卷积神经网络模型能够识别和理解一般
展#目前对图像识别的方法有统计模式识别、结构
模式识别、模糊模式识别和深度学习#深度学习是人工智能中十分重要的部分,且最
早在图像处理中得以成功应用。在1989年加拿大
的自然图片的内容⑵。针对图像识别,传统的识别方法包括统计模式
识别、结构模式识别和模糊模式识别#这些传统的
教授Yann
Le
Cun与其小组成员提出卷积神经网
络并得以应用#卷积神经网络是带有卷积结构的多
层网络,它解决了深层的神经网络占用内存和内部
参数多的问题,同时也缓解了模型在训练时出现的
52识别方法有自适应性能差的缺点,如果待识别的图
像存在比较大的残缺或者有比较强的噪声干扰,则
《新技术新工艺》试验与研究
试验传统的识别方法就无法得到预期的结果。而深度学
习则刚好弥补了传统识别方法的这些劣势,它大大
研究2)池化层。池化层的作用主要是减少参数的数
量,提高计算速度,并增强所提取特征的鲁棒性,同
提高了图像识别准确率和模型在线运算速率,并且
时防止过拟合现象的发生,池化层一般放于卷积层
之后,缩减模型的大小,降低特征维度。降低了提取待识别图像特征的工作「3(。通过综合考
虑,本文在图像识别中加入了卷积神经网络技术。最常见的2种池化层的形式:最大池化和均值
池化。1卷积神经网络卷积神经网络的结构是根据大脑神经元而设
计,其本质就是将一个个简单的神经元连起来,利用
以最大池化为例,池化层输入的4X4矩阵,选
用的池化层尺寸大小为2X2,池化步长为2,则最后
可以得到2X2的池化输出(见图3),图中粗线方框
代表一次最大池化运算。429
505261
7926336536551657池化层输出矩阵每个底层的神经元提取图像的信息,然后将许多这
样的神经元结合起来提取一个十分复杂的图像信
息,最终获得图像的高级语义特征⑷。图片中提取
的高级语义特征种类越多,则越可以体现图片的主
要内容,同时反映出对图片的识别和理解能力也越
强。卷积神经网络结构主要包括卷积层、池化层和
池化层输入矩阵图3池化层的输出3)
全连接层。
卷积层和池化层的工作就是提取
全连接层。1)卷积层。卷积层的运算是卷积神经网络的重
特征,并减少原始图像带来的参数。然而,为了生成
最终的输出,需要应用全连接层来生成一个等于所
需要的类的数量的分类器。要组成部分,其主要作用是图像特征的提取和抽象#
而卷积层的核心则是卷积运算,卷积运算时,图像应
全连接层的工作原理和之前的神经网络学习很
类似,需要把池化层输出的张量重新切割成一些向
该先转换成数值矩阵,然后再进行运算。假定有一
个尺寸为6X6的图像,每一个像素点里都存储着图
量,乘上权重矩阵,加上偏置值,然后对其使用Re-
LU激活函数,用梯度下降法优化参数即可。像的信息。定义一个卷积核(相当于权重),用来从
图像中提取一定的特征(见图1)。卷积核与数字矩
本文设计的神经网络结构包括5个卷积层、3
阵对应位相乘再相加,得到卷积层输出结果(见式
1)#个池化层和3个全连接层&6(。待识别图片可以通
过卷积层和池化层来提取图片中的特征,而全连接
层是把二维的特征图变为一维的特征向量。卷积神
经网络模型在预训练时存在2个过程,即前向传播
与反向传播。卷积核特征值1)前向传播。每一层输出的特征如下:图1特征值的卷积运算y
=
f,.八
(1)o18X
1 +
54X0
+
51
X1
+
55X0
+ 221
X1
+
75X0
+35X
1
+
24X0
+
204X
1
=
429
式中,y()是卷积层的输出*
f(
是非线性的激活
卷积核的取值在没有以往学习的经验下,可由
函数*
@是输入该层的特征图集*
4是该层卷积核
的权值*
.是卷积运算*
#(31)是卷积层输入的特征
函数随机生成,再逐步训练调整。当所有的像素点
都至少被覆盖一次后,就可以产生一个卷积层的输
出(卷积步长为1)(见图2)。1S54221向量;:是偏置。2)反向传播。通过前向传播对样本的预测与网
5042397S113244133S5络期望值的输出来确定模型内部的参数。定义网络
的目标函数:951(W2452352513C€3856X6图像卷积核
图2卷积层的输出卷积层输出=1式中,6(#)为损失函数*
@为样本数*
y为期望输
"J(4,)
=
1,6(b,$) (3)出*y为样本输出。应用梯度下降法对神经网络里
每一层的参数4和:求偏导,得到更新之后的网络
参数值,让实际的网络输出更加接近期望值。卷积层输出值越高,就说明匹配程度越高,越能
表现该图片的特征#《新技术新工艺》试验与研究53
新技术新工艺2021年
第1期2试验准备与结果分析本文基于开源框架TensorFlow和Keras进行
试验研究。试验配置:i5-4200U
CPU
和
AMD
Radeon
HD
8600M
series
显卡'7(
#2.1数据集数据集共分为3类,包括60张训练模型优化模
型参数的训练集、10张检测训练模型每次训练结束
后训练效果的验证集和10张测试图样识别模型的
测试集#选择2张图样,其中用红绿蓝三色图作为
正确的图样(见图4);用非红绿蓝三色图作为错误
的图样(见图5)。分别在不同角度拍摄40张照片,
每张图样取30张拍摄的照片作为训练网络参数的
训练集,再各取5张照片作为检测训练模型训练结
果的验证集,则每张图样剩余的5张照片作为测试
集#图6训练模型流程图图4用作正确的图样图7图片识别流程图图5用作错误的图样在训练开始之前,先加载需要训练的图片,对训
练集进行预处理,包括图片归一化、图片通道统一
2.2试验过程本次训练中通过40个epoch来更新学习率,在
训练开始时设一个较大的学习率,随着学习过程中
系统总误差的减小,学习率也逐渐减小,每当完成一
等,然后进行模型的搭建并进行训练,即开始前向传
播和反向传播,反向传播采用随机梯度下降法进行
优化,每完成一次优化则进行一次判断是否结果更
优,如果更优,则更新相关的权重,否则判断是否完
次epoch训练,将最佳权重保存至特定的文件,以便
后期神经网络模型的部署,训练过程中使用随机梯
度下降法对训练系统进行优化,同时使用7inibatch
训练加快模型收敛#训练模型流程图「8「12(如图6所
成所有epoch训练,如果未完成则返回训练模型继
续训练,否则整个模型训练完成#在
神经
网
络
模
型
预
测
中
!先
加
载
已
经
训
练 完
成
的模型参数,加载图片分类的标签值,以便模型后续
示。在完成40个epoch训练后,保存了训练中的最
佳权重,在模型预测中则直接调用已保存的最佳权
预测结果输出,然后在用户端传入需要分类的图片,
系统得到待识别的图片后,显示进行图片的预处理,
将相关的参数进行统
一
化
!使
用
已经
加
载的
神
经
网
重进行模型预测参数初始化,开始对图片进行预测#
待测图片识别流程图如图7所示#54《新技术新工艺》试验与研究
试验络进行预测,最后输出当前图片的识别结果,完成整
个图像识别的流程。2.3卷积神经网络的训练结果及分析研究但是面向大规模图像分类还有待提高,未来的工作
将进一步调整网络框架、网络内部优化学习更精确
的特征表达,使得该训练模型具有更好的应用前景#
本次设计的训练模型在训练过程中模型训练的
随着这一领域理论的不断深入研究,图像识别和理
解中的卷积神经网络应用将会有更好的发展。迭代次数最大为40,选用的块大小为128,通过采用
GPU模式来加速神经网络的训练,在训练模型中加
入了
Dropout正则化「13(对系统进行优化处理来防
止训练过程中发生过拟合现象,同时对数据集照片
参考文献[1(余凯,贾磊,陈雨强,等.深度学习的昨天今天和明天
进行图集扩充,如:旋转、缩放、翻转等,模型对扩充
以后的数据集在训练过程中也无发生过拟合现象#
由损失函数曲线图(见图8)可知,训练模型训练到
后期时,随着模型学习率逐渐降低,损失函数也保持
J
计算机研究与发展,2013,
50(9):
1799-1804.[2(刘建伟,刘媛,罗雄麟.深度学习研究进展[J(.计算机
应用研究,2014,
31(7):
1921-1930,
1942.[3(邢珍珍.卷积神经网络在图像处理中的应用研究[J(.
软件工程,2019,
22(6):
5-7.[4(常亮,邓小明,周明全,等.图像理解中的卷积神经网
稳定下降,当卷积神经网络的训练模型在迭代次数
达到25次时,损失函数的曲线就开始逐渐趋向于稳
定。而根据模型训练的准确率曲线图(见图9)可
络[J(.自动化学报,2016,
42(9):
1300-1312.[5(白琮,黄玲,陈佳楠,等.面向大规模图像分类的深度
知,在刚开始几次中,训练模型的准确率偏低,这是
由于模型训练迭代次数较少而导致的模型参数没有
得到最优化,不过在模型训练迭代次数逐渐增加的
卷积神经网络优化[J(.软件学报,2018,
29
(4):
1029-
10389[(李彦东,郝宗波,雷航.卷积神经网络研究综述[J(.计
算机应用
,
2016,
36(9)
2508-25659过程中,同时模型数据集的识别率也逐渐提高,当卷
积神经网络训练模型在更迭次数达到25次时,模型
的准确率曲线图也逐步趋于稳定。综合2张曲线图
[7(范望,韩俊刚,苟凡,等.卷积神经网络识别汉字验证
码[J(.计算机工程与应用,2018,
54(3):
160-165.[(杨真真,匡楠,范露,等.基于卷积神经网络的图像分
可知,该模型迭代25次时达到模型的最佳迭代次
数。通过采用一种基于卷积神经网络而设计的训练
模型,其准确率可达到96%
#类算法综述[J(.信号处理,2018,
34(12):
1474-1489.[(王振,高茂庭.基于卷积神经网络的图像识别算法设计
与实现[J(.现代计算机(专业版),2015(20):
61-66.[10(周志华.机器学习[M(.北京:清华大学出版社,
2016[10(
Ramalho
L.流畅的Python[M(.安道,吴珂,译.北
京:人民邮电出版社,2017.[12(
McClure
N.
TensorFlow
机器学习攻略(影印版)[M(.
南京:东南大学出版社,2017.[13(任义丽,罗路.卷积神经网络过拟合问题研究[J(.信
息系统工程,2019(5):
140-142.+国家自然科学基金资助项目(61705077)吉林省科技厅项目(2SF.2SF)
吉林省发展与改革委项目(2019C048-4.2020C021-5)
吉林省教育厅科研规划项目(JJKH20190853KJ,
JJKH20200274KJ)作者简介:张玉红(1977-),女,教授,博士,主要从事稀土上
3结语本文基于卷积神经网络AlexNet设计的图像
识别模型,对于小规模的图像分类,即使对数据加入
旋转、缩放、翻转,预测时仍然保持稳定的精确度#
转换发光及其在传感领域的应用等方面的研究。收稿日
期
2020-10-09责任编辑马爱文《新技术新工艺》试验与研究55