为什么人工智能是有缺陷的?

作者: 闻数起舞 2020-11-03 10:45:53

人工智能已经成为每个人生活中不可或缺的一部分。 从YouTube建议之类的简单任务到诸如生成可治愈疾病的药物之类的复杂的救生任务,它已经无处不在。 它以比我们意识到的更多的方式影响着我们的生活。

但是,人工智能公平吗? 不,绝对不是。

定义一个公平的AI很难。 这是我能想到的最好的解释。 如果输出独立于已经受到社会歧视影响的特定任务的敏感参数(例如性别,种族,性别,宗教信仰,残疾等),则给定的AI模型是公平的。

在此文章中,我将撰写有关AI偏差,AI偏差的现实示例以及解决方法的文章。

问题

AI偏差是由于用于训练模型的数据固有的偏见引起的,从而导致社会歧视。 这导致缺乏平等机会。

例如,假设我的任务是创建一个模型,以位置为参数来计算一个人的信用评分。 某些种族集中在某些地方。 这将使我的模型在种族上偏向那些种族群体,从而在获得信用卡和银行贷款时影响他们。

偏爱的AI模型加剧了当前的社会歧视,并为压迫铺平了道路。

现实生活中AI偏见的例子

这是AI偏见的一些现实例子:

  • COMPAS:COMPAS(替代性制裁的更正罪犯管理分析)是美国法院用来判断被告(被控犯罪的人)成为累犯(重犯先前犯罪的行为)的软件。 由于数据的严重偏差,该模型预测的黑人违犯累犯率是白人的两倍。
  • 亚马逊的招聘:2014年,亚马逊开发了一个AI招聘系统,以简化其招聘流程。 由于用于训练模型的数据来自过去10年,由于技术行业中男性占主导地位,因此大多数被选为男性的申请人被发现具有歧视性。 亚马逊在2018年取消了该系统。
  • 美国医疗保健:美国医疗保健系统使用的AI模型为黑人分配的相同疾病发病率低于白人。 这是因为该模型针对成本进行了优化,并且由于人们认为黑人支付能力较差,因此该模型将其健康风险等级低于白人。 这导致黑人的医疗保健标准降低。
  • Twitter图像裁剪:2020年9月,Twitter用户发现图像裁剪算法更喜欢白脸而不是黑脸。 即,当将宽高比与预览窗口不同的图像发布到Twitter时,该算法会裁剪图像的一部分,并仅显示图像的特定部分作为预览。 这种AI模型经常在预览窗口中以白色和黑色面孔显示白色面孔。
  • Facebook的广告算法:2019年,Facebook允许广告商根据种族,性别和宗教信仰来定位人群。 这导致护理和秘书等工作针对女性,而看门人和出租车司机等工作针对男性,尤其是有色男人。 该模型还了解到,向白人展示房地产广告时,其点击率更高,从而导致向少数群体提供房地产广告的情况有所减少。

这些只是AI偏见的一些常见示例。 无论是否有开发人员的知识,都有许多不公平的AI做法实例。

那么如何解决?

为什么人工智能是有缺陷的?

> Photo by Yancy Min on Unsplash

迈向公平AI的第一步就是承认这个问题。 人工智能是不完美的。 数据不完美。 我们的算法不完善。 我们的技术不完善。 假装没有问题,就不可能找到解决方案。

其次,问问自己这个解决方案是否需要AI。

不要害怕在没有机器学习的情况下发布产品-Google

存在一些不依赖于数据的问题。 诸如发现被告再犯的可能性之类的任务更多地取决于情感而不是数据。

第三,遵循负责任的AI实践。 我在下面添加了Google负责任的AI实践指南中的要点。

负责任的AI实践:

  • 使用以人为本的设计方法:内置适当披露的设计模型,并在部署之前合并测试人员的反馈。
  • 确定多个度量标准以评估培训和监视:使用适合任务的不同度量标准,以了解不同错误和经验之间的权衡。 这些指标可以是来自消费者的反馈,误报率和误报率等。
  • 如有可能,请检查您的原始数据:AI模型反映了用于训练模型的数据。 如果数据有问题,则模型也将有问题。 尝试获得平衡的数据。
  • 了解模型的局限性:经过训练可检测相关性的模型不一定有助于建立因果关系。 例如,一个模型可能会得知购买篮球鞋的人通常平均会更高,但这并不意味着购买篮球鞋的用户会因此变高。
  • 测试:进行严格的单元测试以确定模型中的故障。
  • 部署后继续监视和更新模型:考虑用户反馈,并在部署后根据此模型定期更新模型。
  • 设计一个具有公平性和包容性具体目标的模型:与来自伦理学和社会研究领域的专家合作,以理解和解释各种观点。 尝试使您的模型尽可能公平。
  • 使用代表性的数据集来训练和测试模型:尝试评估数据的公平性。 即,寻找特征和标签之间的偏见或歧视性关联。
  • 检查是否存在不公正的偏见:从不同背景的测试人员那里获得单元测试输入。 这可以帮助确定该模型可能影响的人群。
  • 分析效果:考虑不同的指标。 一个指标的改进可能会损害另一个指标的性能。

开发公平AI的工具

  • FATE:Microsoft提供的AI中的公平性,问责制,透明度和道德规范(FATE),由Microsoft提供评估可视化仪表板和缓解偏差算法的工具。 它主要用于比较系统的公平性和性能之间的权衡。
  • AI Fairness 360:AI Fairness 360是IBM提供的一个开源工具包,可帮助您检查,报告和减轻机器学习模型中的歧视和偏见。
  • ML Fairness Gym:ML Fairness Gym是Google提供的一种工具,用于探索机器学习系统对AI偏见的长期影响。

结论

在过去的几年中,公司和政府已经开始认真对待AI偏见。 许多公司已经开发了评估AI公平性的工具,并且正在竭尽全力对抗AI偏见。 尽管AI具有巨大的潜力,但对我们而言,现在要比以往任何时候都更加重要,要牢记AI系统的潜在歧视性危险并帮助开发公平的AI模型。

人工智能 AI AI偏差
上一篇:边缘AI新方法TinyML,超低功耗,在边缘设备进行机器学习 下一篇:如何走过人工智能转型的转折点
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

就算戴上口罩,AI也知道你在说啥

现在,检测面部肌肉变化的AI来了,只要你动了嘴,哪怕没出声,它也能知道你在说什么。

萧箫 ·  17h前
AI生成肖像画,精细到毛发!北大校友最新研究收割2.8k星标

这款AI工具叫U∧2-Net(U Square Net),最近火到不行!不仅登上了GitHub热榜,收割了2.8k星标,还被顶会ICPR 2020 选中。

贝爽 ·  18h前
AI改进建筑施工安全的十种方式

根据美国国家设备注册局公布的数据,建筑盗窃造成的损失每年往往超过10亿美元。最新型号的设备、工具与用品的被盗可能性最高,追回的几率也最小。

科技行者 ·  19h前
5G和AI:现在和未来的互补技术

围绕人工智能和5G以及它们的变革潜力,科技界有很多热议。这两种技术的有趣之处在于,它们普遍适用于许多行业,并可能改变其中许多技术的运作方式。

佚名 ·  21h前
放飞无人机并非想飞就能飞

自古以来,人们就梦想着能像鸟儿一样翱翔蓝天,无论是童年的纸飞机,还是如今的无人机,放飞的都是人们对天空的热爱。但是无人机放飞并非想飞就飞。这不,第三届进博会期间,上海公安机关便查处了一起多次违规施放无人机、扰乱公共秩序的案件,这也是上海首次出现因违规施放无人机被依法行政拘留的案例。

中国民航网 ·  21h前
AI的偏见:机器就是绝对理性的么?

人工智能已经遍布我们的日常生活。从YouTube的首页推荐到生产药物,它无所不在,它对我们生活的影响超出我们的想象。但人工智能一定公平吗?不,绝对不是。

读芯术 ·  22h前
机器学习的5个成功案例

如今人工智能和机器学习在企业界受到越来越热烈的追捧,企业组织日益利用这些技术更准确地预测客户的偏好,并加强业务运营。

计算机世界 ·  1天前
到2030年,人工智能会发展成什么样?

据麦肯锡全球研究院的研究,截至2030年,人工智能每年将额外创造13万亿美元的价值。其实在今天,人工智能已经在创造收益了,但主要集中在软件领域。然而当到了2030年,在软件行业之外,人工智能也将创造巨大收益,尤其是在零售、旅游、交通、汽车、材料、制造等行业。

读芯术 ·  1天前
Copyright©2005-2020 51CTO.COM 版权所有 未经许可 请勿转载