人与人之间总是有或多或少的刻板印象,如民族、肤色、教育背景、性别等。在人们的心目中,地方团体常常是陈词滥调。例如,女性应该温和听话,工程技术人员大多是男性,白人比黑人有更高的智力等等。每个人都是独立的个体。人们对他人有不同的态度和看法是正常的。出乎意料的是,人工智能也有“刻板印象”。

最近,Facebook的人工智能实验室进行了一项有趣的新研究。他们发现,人工智能偏见不仅存在于国家内部,也存在于国家之间。

研究人员测试了五种流行的现成的对象识别算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,以了解每个程序的效果。用于测试的数据集来自不同国家的家庭,包括穷人和穷人,包括117个类别,从鞋子、肥皂到沙发。

在这项研究中,研究人员发现,当被要求识别低收入家庭时,目标识别算法的准确度比高收入家庭低10%。随着月收入的增加,误差也会增加。特别是对于谷歌、微软和亚马逊来说,低收入家庭识别算法的准确性很低。

与索马里和布基纳法索相比,该算法在识别美国产品方面的准确度提高了15-20%。

这种现象有很多原因。最常见的原因是,在创建算法时,通常会受到相关工程师的生活和背景的影响。这些人大多来自高收入阶层的精英阶层,他们的思想和观念都是基于他们的思想和观念,人工智能算法也是基于他们的思想和观念。

人工智能(ai)具有强大的计算能力,在算法的基础上,可以方便地获取海量数据和识别信息。然而,令人担忧的是,它的偏见不仅在物体的鉴定上有偏见,而且在种族和性别歧视上也有偏见。

研究人员测试了微软、IBM和Facebook的人脸识别功能。他们发现白人男性的正确率高于99%,而黑人女性的错误率为47%。

亚马逊开发了一个人工智能程序来阻止简历的选择,这也显示了对女性的歧视。选择简历后,男性比女性多。包含女性角色的简历的权重将会降低,甚至降低了两所女子学院的研究生评级。可见人工智能也是有自我选择,和不可磨灭的“歧视”。不过在另一方面人工智能又显得极为平等,比如最近大火的人工智能机器人,它就完全可以做到对每一个人的态度都是平等的,不会因为你有钱你的性别就改变对你的态度,他会像人一样温和做到有问必答,及时遭受到批评也会虚心接受。电话机器人好不好用?这么多企业疯抢的场面也回答了这个问题。