深度学习只不过是机器学习的标准范例,更准确地说 - 是其算法之一。在最大程度上,它基于人脑的概念和神经元的相互作用。如果你开始谷歌搜索深度学习是什么,你会发现今天这个超级热门词远远不是新的。为什么这样?该术语本身出现在20世纪80年代,但到2012年,没有足够的力量来实施这项技术,几乎没有人关注它。

在着名科学家的一系列文章,科学期刊上的出版物之后,这项技术迅速成为病毒。今天,它有各种各样的应用程序,其中重要的地方是人脸识别。首先,深度学习提供了构建识别生物识别软件的能力,该软件能够唯一地识别或验证人。所有这一切都是因为深度学习方法能够利用非常大的面部数据集并学习面部的丰富和紧凑的表示,从而允许现代模型首先表现良好,然后表现优于人类的面部识别能力。

事实证明,对于我们人类来说显而易见的特征(例如,眼睛颜色)对于分析图像中的各个像素的计算机没有意义。研究人员发现,最合适的方法是使计算机能够确定需要收集的特征。反过来,深度学习可以更好,更快地识别。

而这种可能性出现了,或者说最近发现的更好。最初,每个人都认为神经网络无法达到接近人类的水平。然而,一切都在2014年发生了变化。科学家们决定通过目前最好的两个网络 - 亚历克斯网和Matthew D. Zeiler和Rob Fergus开发的网络- 将它们与不同领域的反应进行比较。猴子的大脑,也被教导识别一些物体。这些物品来自动物世界,因此猴子不会感到困惑。

由于显然不可能从猴子那里获得响应,因此将电极植入其中并直接测量每个神经元的响应。事实证明,在正常情况下,脑细胞的反应与当时最先进的模型一样,即Matthew Zeiler网络。

然而,随着显示对象的速度的增加,图像中的噪声和对象的数量的增加,我们的大脑和灵长类动物的大脑的识别率和质量显着降低。即使是最简单的卷积神经网络也能更好地识别物体。也就是说,官方神经网络比我们的大脑工作得更好。

除了AlexNet和Zeiler网络在人脸识别深度学习方面的突破外,还有其他里程碑系统,如DeepFace,DeepID系列系统,VGGFace和FaceNet。如果你想更好地理解面部识别和深度学习是如何产生的,那么了解它的历史是必要的:

DeepFace是一种基于2014年Facebook研究小组创建的深度卷积神经网络的面部识别系统。它识别数字图像中的人脸。准确率为97%,这是使用深度学习进行人脸识别的重大飞跃。
DeepID或“Deep hidden IDentity features”是一系列系统(例如DeepID,DeepID2等),由Yi Sun等人首先描述。他们在2014年的论文题为“预测10,000个类的深度学习面部表示。”他们的系统最初被描述为与DeepFace很相似,尽管在随后的出版物中进行了扩展,以通过对比损失进行培训来支持识别和验证任务。
VGGFace(缺乏更好的名称)由Omkar Parkhi等人开发。来自牛津大学的视觉几何组(VGG)并在其2015年的题为“深度识别”的论文中进行了描述。除了更好的调整模型外,他们的工作重点是如何收集非常大的训练数据集并使用这是为了训练一个非常深的CNN模型进行人脸识别,使他们能够在标准数据集上获得最先进的结果。
FaceNet是谷歌研究人员于2015年开发的人脸识别系统,该系统在一系列人脸识别基准数据集上取得了当时最先进的成果。由于模型的多个第三方开源实现和预训练模型的可用性,FaceNet系统可以广泛使用