作为类脑计算领域的一个重要研究成果,深度卷积神经网络已经广泛应用到计算机视觉,自然语言处理,信息检索,语音识别,语义理解等多个领域,在工业界和学术界掀起了神经网络研究的浪潮,促进了人工智能的发展.卷积神经网络直接以原始数据作为输入,从大量训练数据中自动学习特征的表示.卷积神经网络具有局部连接,权值共享和池化操作等特性,可以有效降低网络复杂度,减少训练参数的数目,使模型对平移,扭曲,缩放具有一定程度的不变性.目前,深度卷积神经网络主要是通过增加网络的层数,使用更大规模的训练数据集,以及改进现有神经网络的网络结构或训练学习算法等方法,来模拟人脑复杂的层次化认知规律,拉近与人脑视觉系统的差距,使机器获得"抽象概念"的能力.深度卷积神经网络在图像分类,目标检测,人脸识别,行人再识别等多个计算机视觉任务中都取得了巨大成功.该文首先回顾了卷积神经网络的发展历史,简单介绍了M-P神经元模型,Hubel-Wiesel模型,神经认知机,用于手写识别的LeNet以及用于ImageNet图像分类比赛的深度卷积神经网络.然后详细分析了深度卷积神经网络的工作原理,介绍了卷积层,采样层,全连接层的数学表示及各自发挥的作用.接着该文重点从以下三个方面介绍卷积神经网络的代表性成果,并通过实例展示各种技术方法对图像分类精度的提升效果.从增加网络层数方面,讨论并分析了AlexNet,ZF-Net,VGG,GoogLeNet和ResNet等经典卷积神经网络的结构;从增加数据集规模方面,介绍了人工增加标注样本的难点以及使用数据扩增技术对神经网络性能提升的作用;从改进训练方法方面,介绍了包括L2正则化,Dropout,DropConnect,Maxout等常用的正则化技术,Sigmoid函数,tanh函数以及ReLU函数,LReLU函数,PReLU函数等常用的神经元激