AI的偏见:机器就是绝对理性的么?

作者: 读芯术 2020-11-27 14:34:09

 本文转载自公众号“读芯术”(ID:AI_Discovery)

人工智能已经遍布我们的日常生活。从YouTube的首页推荐到生产药物,它无所不在,它对我们生活的影响超出我们的想象。但人工智能一定公平吗?不,绝对不是。

人们很难定义什么是公平的人工智能。以下是我能想出的最好的定义:对于社会歧视影响下的特定任务,如果给定的人工智能模型能够输出独立于敏感性参数(例如性别、种族、性取向、宗教信仰、残疾等)的结果,那么这个人工智能模型就是公平的。

本文将讨论人工智能偏见,与之对应的真实例子,及其解决方法。

问题

人工智能偏见是由于训练模型的数据所固有的偏见造成的,这导致了社会歧视,进而导致平等机会的缺乏。

假设我的任务是创建一个以位置为参数计算个人信用评分的模型,某些种族群体会集中在某些地方,这将使创建的模型对那些种族群体产生偏见,会影响他们申请信用卡和银行贷款,存在偏见的人工智能模型加剧了当前的社会歧视。

人工智能偏见的真实例子

  • COMPAS(另类制裁法惩罚罪犯管理分析)是美国法院用来判定被告成为累犯(重犯先前所犯罪行的罪犯)可能性的软件。由于存在严重的数据偏差,该模型预测黑人罪犯累犯的假阳性率是白人罪犯的两倍。
  • 2014年,亚马逊开发了一套人工智能招聘系统以简化招聘流程。研究发现该系统歧视女性,因为用于培训模型的数据来自过去10年。过去10年,由于科技行业中男性占主导地位,大多数被选中的申请人都是男性。亚马逊在2018年废除了这个系统。
  • 美国医疗保健系统采用人工智能模型,认为黑人患同一疾病的风险比白人低。这是因为该模型对成本进行了优化,而且由于黑人被认为支付能力较低,因此该模型将他们的健康风险排在白人之后,导致黑人的医疗标准降低。
  • 2019年,Facebook允许广告商根据种族、性别和宗教瞄准人群。这导致护士和秘书等工作以女性为目标,而像门警和出租车司机这样的工作则瞄准男性,特别是有色人种的男性。该模型还了解到,房地产广告向白人展示时,点击率较好,所以面向少数人群的房地产广告投放较少。
  • 2020年9月,Twitter用户发现图像裁剪算法偏爱白人脸而非黑人脸。当在Twitter上发布一幅与预览窗口的宽高比不同的图像时,该算法会自动裁剪掉图像的一部分,只显示图像的某一部分作为预览。在黑白面孔同框时,该人工智能模型通常在预览窗口中显示白人。

这些例子只是沧海一粟。无论开发者是否知情,许多不公平的人工智能操作都真实存在着。

如何解决这个问题呢?

迈向公平人工智能的第一步是承认问题。人工智能是不完美的,数据是不完美的,我们的算法是不完善的,我们的技术也不够完善。如果我们对问题视而不见,那么是不可能找到解决办法的。

其次,问问自己这个解决方案是否需要人工智能。有一些问题不依赖于数据,比如寻找被告人再犯可能性这样的任务更多地依赖于情感而不是数据。

第三,遵循负责任的人工智能实践。在谷歌负责任的人工智能实践指南的基础上,我补充了几个要点。负责任的人工智能实践:

  • 使用以人为中心的设计方法:设计模型时内置适当的信息披露,并在部署前纳入测试人员的反馈。
  • 确定多个指标评估培训和监控:使用适合任务的不同指标,以了解不同错误和经验之间的权衡。这些指标可以来自消费者的反馈、假阳性率和假阴性率等。
  • 如果可能的话,请检查原始数据:人工智能模型反映了用来训练模型的数据。如果数据有问题,模型也会有问题。因此,尽量保持数据平衡。
  • 理解模型的局限性:一个被训练来检测相关性的模型对建立因果关系不一定有用。例如,一个模型可能会了解到,购买篮球鞋的人一般都比较高,但这并不意味着购买篮球鞋的用户会因此变得更高。
  • 测试:进行严格的单元测试以确定模型中的故障。
  • 部署后继续监控和更新模型:在部署模型后,关注用户反馈,并定期更新模型。
  • 设计一个公平与包容兼具的模型:与伦理和社会研究领域的专家接洽,了解和解释各种观点,试着让模型尽可能公平。
  • 使用具有代表性的数据集来训练和测试模型:尝试评估数据的公平性。也就是说,寻找特征与标签之间的偏见或歧视性关联。
  • 检查不公平的偏差:从不同背景的测试人员那里获取单元测试输入,这有助于确定哪些人群可能会受到该模型的影响。
  • 分析性能:考虑不同指标,一个指标的改进可能会损害另一个指标的性能。

开发公平人工智能的工具

  • AIFairness 360:这是IBM提供的一个开源工具包,可帮助用户检查、报告和减轻机器学习模型中的歧视和偏见。
  • ML Fairness Gym:这是谷歌提供的一个工具,用于探索机器学习系统对人工智能偏见的长期影响。
  • FATE:AI中的公平、责任、透明度和伦理(FATE),微软提供了评估可视化仪表盘和偏差缓解算法的工具。它主要用于公平与系统性能之间的权衡。

近来,公司和政府开始逐渐正视人工智能中的偏见。许多公司已经开发了评估人工智能公平性的工具,并且正在尽最大努力解决人工智能偏见。

虽然人工智能有着巨大的潜力,但我们现在比以往任何时候都更需牢记人工智能系统潜在的歧视性危险,我们也应帮助开发出公平的人工智能模型。

人工智能 机器学习 工具
上一篇:机器学习的5个成功案例 下一篇:智能制造技术:高效生产的未来?
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

人工智能违抗主人的命令,甚至发声嘲笑!意识觉醒了?

人工智能作为当下研究的热点项目,各国都为其投入了无限的精力以及心血,渴望能够超越其他国家掌握先机,进而提高自己在国际社会中的地位。而人工智能就目前来看,也已经获得了不小的成果,扫地机器人、机械臂、智能音箱等一切都逐渐日常化。

互联狗 ·  20h前
俄媒:人工智能可利用面部识别判断信仰倾向

《俄罗斯报》1月19日发表了题为《藏不住了?》的文章称,美国斯坦福大学学者迈克尔·科辛斯基教授研发出了一种可根据人脸表情判断其信仰倾向的人工智能技术。

参考消息 ·  20h前
到2030年,人工智能会发展成什么样?

人工智能、机器学习、深度学习这些热词近来被频繁使用。让承认人工智能将融于世界的现实期望固然很赞,但了解和揭秘人工智能同样意义重大。这篇文章将阐述人工智能的所有概念,全面理解人工智能,避免混淆这些概念。

佚名 ·  1天前
人工智能辅助诊疗发展现状与战略研究

本文选取健康医疗信息人机交互、数据智能中的语义理解与医学影像分析作为切入点,简要阐述了人工智能在辅助诊疗问题上的发展方向与现状,讨论了智能诊疗技术发展与应用的问题与挑战,为相关部门提供决策支持。

佚名 ·  1天前
大国竞争的焦点:人工智能与数字主权

2021年1月13日,美国智库大西洋理事会发布题为《大国竞争: 人工智能、中国和全球对数字主权的追求》的报告,本报告总结了2020年度人工智能对话和会议的关键要点,确定了世界不同地区在应对新兴技术时面临的挑战和机遇,并评估了中国在其中的作用。

佚名 ·  1天前
闲聊几句就掏心掏肺?这届人工智能,把你的隐私当成了谈资

随着时代的进步,高科技产品在我们的生活中无处不在,但是,你是否质疑过,自己的隐私正在被这些高科技“生物”所窃取?事实上,我们的隐私正在处于泄露中。

木子Yanni ·  1天前
人工智能不智能?一开始方向就错了

上个世纪50年代,约翰·麦卡锡提出了人工智能的概念,从此“AI”这个名字就诞生了。随着技术的发展,AI被划分为弱人工智能(简称“弱AI”)和强人工智能(简称强AI)两类,这个概念是由一位美国哲学家提出的,两者的区别就在于是否具备自主意识和思维,这就是AI发展的瓶颈。

刘梦还 ·  1天前
多模态生物识别有什么优势

什么是多模态生物识别呢?多模态生物识别就是多种生物识别技术相互融合,满足不同场景和安全级别需要。

智能制造网 ·  1天前
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载