一副眼镜解锁19款手机的视频,瑞莱智慧RealAI发布的人脸识别安全研究引发社会热议。这一破解原理到底是什么?它的危害边界有多大?面对大规模的广泛应用,人脸识别的安全性如何保障?普通公众又该如何该保障个人隐私安全?在近期央视新闻《法治在线》、广东卫视3·15栏目的专题深度报道中,RealAI团队给出了相应的解答。

632_3c1438eee686029ea09dc72401062a62.png

央视新闻《法治在线》专题报道

632_18f454053318920f8f7195d81bd55c88.png

广东卫视3·15晚会专题报道

一、背后源自深度学习算法结构性缺陷

RealAI技术人员解释到,攻击背后使用的是“对抗样本”技术,通过结合攻击者与攻击对象的图像特征自动生成一张“干扰图案”,对于普通人来说,肉眼能明显识别戴上眼镜的攻击者与攻击对象是有区别的,但算法看来两者的特征数值是相近的。

632_9ae56dbb30dd892d302c447ef01a7e6d.png

而“对抗样本”存在的根本性原因在于深度学习算法的结构性缺陷,黑盒的深度学习导致人类难以理解它的内在逻辑,即便是设计开发人员也无法理解和安全控制算法的输出、算法的执行逻辑,这就导致必然会有一些执行过程跟设计者的意图不吻合,也就给恶意攻击留下了空间。

除了手机的面部解锁,一些常用的人脸识别门禁系统、考勤打卡系统,包括线上APP的身份认证系统也存在相似的安全漏洞。但这也并非是人脸识别技术的专属,RealAI研究人员表示,这本质上是深度学习方法的漏洞,语音识别、文本处理等技术都可能存在被对抗样本攻击的可能。

二、理性看待人脸识别应用,加强技术防护必不可少

虽然对抗算法的研发存在较高的技术门槛,一般的黑灰产从业者难以掌握,但如果存在黑客恶意开源,对抗样本实现的成本就变得非常低,将可能导致财产损失、隐私泄漏等威胁。

但正如清华大学人工智能研究院院长张钹院士所说,面对人脸识别应用也切不可因噎废食,应该在隐私保护、技术便利和公共安全三者之间找到平衡点。

632_970708f2b61e18c88d11bd6b07c2f247.png

治理手段的选择,技术制度两个层面需要同步推进。一方面是从法律法规道德伦理层面去限制或者制约人类对人工智能技术的误用或者滥用,第二个方面从技术层面去发展新的技术,克服人工智能算法本身的不安全性和脆弱性

RealAI目前开展的一系列算法攻防研究,就是采用“以子之矛攻子之盾”的技术路线,通过攻防对抗不断升级,演练出针对性的防御技术,比如打造出类似于人脸识别系统的防火墙,应用到现的人脸识别应用上,就可以先于黑客发现并修补漏洞,为人脸识别筑起安全防线。对于普通公众而言,RealAI技术人员则表示,无需过度恐慌,加强并重视日常生活的安全防护工作,比如不在社交媒体平台上发个人正面清晰照,保护好身份证号等重要信息,以及尽可能选择安全级别更高的人脸识别设备。

最后,针对人脸识别这类前沿技术的治理,推动相关技术标准、增强行业自律至关重要,作为安全人工智领域的代表性企业,RealAI也依托自身技术优势, 与公安部、工信部等相关单位开展合作,积极参与到行业规范的工作中,为推动人工智能产业可持续发展贡献力量。