人脸识别背后:可怕的不是技术,而是……

作者: 读芯术 2020-02-12 22:20:39

此前,AI换脸软件ZAO的一夜爆红,不仅让其服务器陷入了“满负荷至崩溃运行“的危机之中,也将用户的安全与隐私暴露在种种危险地带。

同样的情况,国外也不少见。

今年七月,一款“变容”软件让众多(美国)手机用户惶恐不安。大可称其为FaceApp,该修图软件凭借其能将拍摄的人脸赋予逼真的沧桑感而圈粉无数,自此一跃成为网上的“病毒”,无孔不入。

而且放眼各大社交平台和晒图网站,全是它的成果。

人脸识别背后:可怕的不是技术

刚开始,FaceApp的爆红似乎并没有什么异样,直到一些心怀疑虑的互联网调查员发现软件提供商为俄方公司,事情有了新的走向。

民众一瞬间沸腾起来,社交平台、网络论坛无不充斥着人们的焦虑感:这些俄罗斯人是谁?为什么想要我们的脸部照片?他们会怎样利用收集的数据?一些新闻媒体主播就此提醒广大民众;还有一位民主党人士呼吁(有关部门)对此展开调查。全国上下所有人内心都有这么个疑问——令人不安的俄方情报机构是否在非法利用他们的面部信息来完善本国的人脸识别程序?

而事实证明,FaceApp供应商与俄政府之间的联系被夸大了,其实什么都没有。据《华盛顿邮报》的一项调查报告显示,该公司与国际情报组织没有交集,也不会给非法监视组织提供信息资源,目前也并没有用存储的照片来升级改造什么人脸识别系统。整件事下来就是对数据的小题大做。

但这样的骚动并不意外。人们对许多看似有趣方便且有利用价值的网络服务都相继产生担忧,而FaceApp的窘境不过是最近刚发生的。人们想知道,这种自动给脸书上照片贴标签排队的技术会让公司了解他们的个人信息并跟踪利用他们吗?在顾客走进一家免付款(cashier-less)亚马逊商店时,零售商会利用收集的监控录像对付顾客吗?

人们对此通常是无法感知的——而这就是问题所在。所以背后引发的一个问题就是:当下AI程序到底会用人类面孔做什么?有多少的恐惧是来源于传言,而非摆在面前的事实?技术的力量是否让人类的担忧不断增多?

我们来一起想想这个问题。

人脸识别背后:可怕的不是技术

来源:dy.163.com

人脸识别究竟为何物?

在深入探讨人脸识别的风险之前,有必要先了解一下它是如何工作的。

人脸识别技术(FRT)的功能主要依靠于对人脸节点测量结果的识别和模型创建;包括但不限于鼻子的宽度、下巴的长度或双眼间的距离。这些测量结果最终会转录到一个拥有特定代码的模板中,之后便可以将图片与数据库中已有图像进行比对甚至可能进行匹配。

比如,赌场可能会用这种技术对入场玩家与列有问题赌者的内部资料进行比对。还有些调查人员可以通过驾照数据库、警方存档的嫌犯照片或脸书这种社交平台得到想要的资源。然而,照片库的使用宽限则取决于这些人拥有多少图片资源的使用权,这也是接下来会说到的——搜查的准确度。

人脸识别背后:可怕的不是技术

来源:detail.zol.com.cn

人脸识别可以(或不能)做什么?

与观众追的所有间谍剧剧情不同的是,FRT很少会立即反馈准确的信息,在环境复杂时亦如此。说政府会通过街道上不清晰的监控片段在几秒内找到目标人物的说法实属夸张。

但人脸识别监控的确有可能实现,所要面临的无非是精确度低和各种环境因素问题。相机质量、计算程序、时间、距离、数据库大小甚至包括人口学中的种族和性别都会影响FRT搜索的最终效果。

笔者记得很清楚,2018年美国公民自由联盟(ACLU)组织进行了一项测试,其结果显示亚马逊平台的人脸识别系统Rekognition错误地将28名国会成员与警方存底的嫌犯照片进行了匹配。

另一项由麻省理工媒体实验室(MIT Media Lab)发起的调查显示亚马逊识别系统还在苦苦挣扎于性别的识别,有19%的可能性会将女性误认为男性,有超过1/3的可能性会将肤色较深的女性误判为男性。而亚马逊将一切的误差都归咎于低校准度。

亚马逊的说法也不为过,至少还是占点理的。毕竟研究人员发现脸书的识别系统比FBI还准确,因为社交平台上有相当多的照片可供参考,同时还会主动要求用户验证其相片从而完善算法。人们因此会对Rekognition产生误解,当然所有的FRT软件都免不了遭受质疑:这些软件能做到的程度只取决于其照片参考量。

人脸识别背后:可怕的不是技术

来源:dy.163.com

亚马逊的一位发言人告诉the Verge网说,“80%的可信度对热狗、椅子、动物或其他社交媒体上的照片是可以接受的,但对于有面部特征的人是不够的”。

点评的很客观,也似乎有些打脸。因为公司已经下架Rekognition,并将其递交给了执法部门和ICE,但依然没有确立一个法定的FRT置信度。识别的一再不准确给FRT的前进道路布设了重重障碍,比如不能单凭技术作为逮捕嫌疑人的根据,它只可用于协助调查。

可别搞错了,虽说目前美国的FRT能力不能在模糊的监控片段中于漆黑道路上锁定目标,可获得这种能力只是时间的问题。中国以监督百姓生活闻名,近期因通过FRT在短短七分钟内追踪一名BBC记者,成为了新闻热点话题。这给美国未来如何使用该技术提供了先例。

不过有一点很明确:虽然当下美国的人脸识别技术无法做到一直保持准确,但国内的企业正致力于改进和使用它。目前为止存在的两大问题:第一,不可靠的技术也许会让人蒙受不实的斥责;第二,随着技术发展的更加准确,范围越广,监控趋势会向中国靠拢。

FaceApp的用户置身于何种境地?

FRT的发展是大势所趋,现在也许无法做到完全准确或者合理使用,但未来会实现。与此同时,人们需要开始思考该如何、何时、何种程度地使用该技术,在FRT超出监管之前制定严苛的限制。正如《华盛顿邮报》一名作者写的,“今天,人脸识别也许会让你开开心心地进到棒球赛场,但基于系统原先编写的视觉假设,你也有可能被认为具有暴力犯罪行为,那时可能就不太愉快了”

所以用户身处的境地更多是关于哲学意味的。一款滑稽的程序会给照片上的自己加一些逼真的皱纹,这兴许很有意思,但背后收集的数据可能早晚会用来对付人们自己。当然,这些照片可能会受困于某处的俄方供应商,无法触碰,或者作为参考实现一个更加高效准确的FRT系统,用于监督人民。该事件指向了数字世界不安全的核心问题,也促使人们发问:“长期以来我们如此信任的看似无辜的数据,是否会伤害我们自己?”

人脸识别背后:可怕的不是技术

来源:Pexels

现在领悟到什么了吗?

下一次有照片过滤器、网上游戏或数字趋势蔓延开来,系好安全带把自己拴紧,考虑一下要不要跻身潮流。

哪怕觉得自己的自拍会以数字或文字形式隐匿于某西伯利亚的服务器,也要想着会有人利用它。

就像国内ZAO的横空出世,地下灰色产业逐渐浮出水面一般,在掀起病毒式恐慌之前,人们永远不会意识到问题有多严重。。

没有危机意识的你,也许只有在看毛片黄图时,意外发现自己的脸后,才会感到恐慌和危险。

人脸识别背后:可怕的不是技术

人脸识别 人工智能 AI
上一篇:一个案例掌握深度学习 下一篇:关于5G,你要知道的那些事,还不快来了解下
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

MIT提出Liquid机器学习系统,可像液体一样适应动态变化

麻省理工学院(MIT)的研究者开发出了一种新型的神经网络,其不仅能在训练阶段学习,而且还能持续不断地适应。

机器之心 ·  2021-02-21 15:47:47
规划智慧城市时,别忘了无障碍通行

要想成为一个智慧城市甚至一个智慧世界,虽然可能需要时间和有针对性的规划,但我们必须以人为本。

蒙光伟 ·  2021-02-21 10:26:41
2021关于人工智能的五大趋势

数字化变革,比过去10年更多,这主要是由于远程工作的规模,以及企业迅速部署了必要的技术,尤其是与网络安全相关的技术。那,2021关于人工智能的五大趋势会是如何的呢?

Lichu ·  2021-02-21 10:21:01
使数据中心更智能:人工智能如何发挥作用?

随着数据成为维持几乎所有业务运营以获取洞察力和业务成果的先决条件,数据中心正处于这种数字化转型的关键。

Cassie ·  2021-02-21 10:14:59
IBM拟出售Watson Health后,AI医疗还能不能碰

医疗服务仍然是一块商业上尚未被完全发掘的市场,看病难/看病贵、医疗资源紧缺、医疗资源不平均等痛点问题长期存在,对应的市场空间理应是巨大的。而Watson Health作为IBM曾寄予厚望的业务方向,为何要在此时萌生退意?它的故事给业界带来哪些启发?眼下的AI医疗市场,究竟是一副什么样的局面呢?

物联传媒 ·  2021-02-21 08:41:16
抛弃归一化,深度学习模型准确率却达到了前所未有的水平

我们知道,在传递给机器学习模型的数据中,我们需要对数据进行归一化(normalization)处理。

机器之心 ·  2021-02-20 21:09:12
华人博士生首次尝试用两个Transformer构建一个GAN

最近,CV 研究者对 transformer 产生了极大的兴趣并取得了不少突破。这表明,transformer 有可能成为计算机视觉任务(如分类、检测和分割)的强大通用模型。

Yifan Jiang ·  2021-02-20 21:04:53
无监督训练用堆叠自编码器是否落伍?ML博士对比了8个自编码器

柏林工业大学深度学习方向博士生 Tilman Krokotsch 在多项任务中对比了 8 种自编码器的性能。

Tilman Krokotsch ·  2021-02-20 20:57:16
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载