人工智能治理如何上升到顶层

作者: James Kobielus 2020-10-27 10:04:54

人工智能(AI)技术如今正在广泛应用。人工智能治理之所以重要,是因为人工智能可以获得更大的回报,但面临很高的风险,如果做错其后果会非常严重。

组织必须从风险管理的角度进行治理。人工智能的主要风险因素包括以下几个方面:

  • 可以防止人工智能侵犯人们的隐私吗?
  • 能否消除人工智能驱动的应用程序中可能产生的社会和经济偏见?
  • 能否确保人工智能驱动的过程对于人们完全透明、可解释和可理解?
  • 是否可以设计人工智能算法,以便始终清楚地表明人类对其算法结果的责任和义务?
  • 是否可以将道德和道德原则纳入人工智能算法中,以便它们将人类的全部考虑因素权衡可能会导致生死攸关的决定?
  • 是否可以自动使人工智能应用程序与利益相关者的价值观保持一致,或者至少在特殊情况下获得抵御的能力,从而防止恶意机器人在自主决策场景中出现?
  • 在不确定性太大而无法证明自主行动正当性的情况下,能否遏制人工智能驱动的决策?
  • 是否可以制定故障保护程序,以便当人工智能自动化应用程序达到其能力极限时,人类可以收回控制权?
  • 即使需要动态适应不断变化的环境,能否确保人工智能驱动的应用程序以一致、可预测的方式运行,而没有意外的副作用?
  • 能否保护人工智能应用程序免受旨在利用其底层统计算法漏洞的敌对攻击?
  • 当环境数据与受过训练的环境有很大出入时,是否可以设计优雅地而不是灾难性地失败的人工智能算法?

基于软件的流水线自动化的人工智能治理

如果在基于软件的开发和运营(DevOps)流程中没有适当地控制适当的控件,那么人工智能治理将毫无用处。

人工智能应用程序是由数据科学家、数据工程师、数据管理员和其他人组成的团队在复杂的工作流程中构建、培训、部署和管理的。为了满足这一需求,许多组织正在将人工智能治理控制构建到其MLOps过程中。本质上,这需要策略驱动的流程自动化,这些流程管理数据、统计模型、元数据,以及用于构建、培训和部署人工智能应用程序的其他构件。它还需要工具来监视人工智能应用程序在其生命周期中的使用、行为和结果。

任何人工智能驱动过程的典型风险是不知道组织是否可以信任一个已部署的统计模型来准确可靠地完成分配的任务。如果一个统计模型的预测适合度下降到无法完成其指定任务(如识别人脸、理解人类语言或预测客户行为)的程度,那么对于构建和部署它的组织来说,这基本上是无用的。

因此,人工智能治理的核心功能是模型保证。这是一种确定人工智能应用程序的机器学习模型是否能够预测适合其分配任务的能力,如果不适合,则将其重新放回原处。

然而,预测精度可能是一个难以保证的性能指标。人工智能的统计模型通常以人工神经网络的形式实现,可能是如此的复杂和神秘,以至于它们掩盖了它们实际上是如何驱动自动推理的。同样令人担忧的是,基于统计的应用程序可能会无意中混淆其自动决策可能产生的任何偏见和其他不利后果的责任。此外,这些概率模型可能很少被评估和重新训练,导致曾经适合特定目的的模型现在已经失去了预测能力。

在MLOps平台中嵌入人工智能模型保证

将业务押注在人工智能驱动流程上的组织必须考虑,是将模型保证作为其MLOps平台的一项嵌入式功能,还是从专注于这一令人兴奋的利基市场的初创供应商那里获得。

幸运的是,越来越多的数据科学DevOps环境提供了可靠的模型保证。这些工具的最新一代利用云原生基础设施来部署和管理稳定的人工智能模型流,并且代码构建一直到边缘。商业产品中的主要产品是:

  • 谷歌云人工智能平台提供持续评估等模型质量保证功能,让数据科学家将模型预测与实际情况标签进行比较,以获得持续反馈,并优化模型精度。
  • H2O.ai无人驾驶人工智能提供了丰富的模型质量保证功能。它支持分析一个模型是否会对不同的人口群体产生不同的不利结果,即使它的设计并没有考虑到这种结果。它可以自动监控已部署模型的预测衰减;为A/B测试建立替代模型的基准;以及在需要重新校准、重新培训和以其他方式维护模型以使其为生产做好准备时向系统管理员发出警报。
  • Microsoft Azure机器学习MLOps可以通知机器学习生命周期中的事件并发送警报,例如实验完成、模型注册、模型部署和数据漂移检测。它可以监视机器学习应用程序的模型特定指标,并提供机器学习基础设施的监视和警报。它还可以根据新数据和其他操作和业务因素自动重新培训、更新和重新部署模型。
  • Amazon SageMaker Model Monitor持续监视AWS Sagemaker云计算服务中的机器学习模型,检测诸如数据漂移之类的偏差,这些偏差会随着时间的推移降低模型性能,并警告用户采取补救措施,例如审核或再培训模型。可以安排监视作业按常规节奏运行,可以将摘要指标推送到Amazon CloudWatch以设置警报和触发器以采取纠正措施,并支持Amazon SageMaker支持的多种实例类型。
  • Superwise的人工智能保证提供了一个实时平台,用于监控和维护已部署人工智能模型的准确性。它使涉众能够在部署的人工智能模型产生负面业务影响之前发现模型衰退和其他问题。它标记了模型的不精确性,这些误差源于人工智能模型的数据变化。它还可以捕捉到与模型部署到的业务环境中的变化相关联的不精确性。它为数据科学团队提供了前瞻性的建议,以采取人工操作来保持模型的准确性、公正性以及其他方面的适用性。它还可以自动执行一些纠正措施,以防止模型漂移到潜在的次优领域。

结论

虽然人工智能并不是公众的威胁,但现实情况是,可能会看到更多的司法管辖区加强了这项技术的监管规定。

随着人们进入20世纪20年代,从最好的和最坏的意义上讲,人工智能应用将是最具颠覆性的技术。如果扩散不受监控和控制,则错误的人工智能模型将给社会造成严重破坏。人工智能的某些风险来自技术特定构造中的设计限制。其他原因可能是由于对实时人工智能应用程序的运行时管理不足。还有其他一些可能是该技术难以理解的机器学习、深度学习和人工智能依赖的其他统计模型的“黑盒”复杂性所固有的。

为了减轻这些风险,组织将越来越多地要求在每个部署场景中对这些模型的性能进行自动化治理。

人工智能 AI 人工智能技术
上一篇:如何在PyTorch和TensorFlow中训练图像分类模型 下一篇:2020全球咨询公司的新排名,AI时代下的全新挑战
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

就算戴上口罩,AI也知道你在说啥

现在,检测面部肌肉变化的AI来了,只要你动了嘴,哪怕没出声,它也能知道你在说什么。

萧箫 ·  17h前
AI生成肖像画,精细到毛发!北大校友最新研究收割2.8k星标

这款AI工具叫U∧2-Net(U Square Net),最近火到不行!不仅登上了GitHub热榜,收割了2.8k星标,还被顶会ICPR 2020 选中。

贝爽 ·  19h前
AI改进建筑施工安全的十种方式

根据美国国家设备注册局公布的数据,建筑盗窃造成的损失每年往往超过10亿美元。最新型号的设备、工具与用品的被盗可能性最高,追回的几率也最小。

科技行者 ·  19h前
5G和AI:现在和未来的互补技术

围绕人工智能和5G以及它们的变革潜力,科技界有很多热议。这两种技术的有趣之处在于,它们普遍适用于许多行业,并可能改变其中许多技术的运作方式。

佚名 ·  21h前
放飞无人机并非想飞就能飞

自古以来,人们就梦想着能像鸟儿一样翱翔蓝天,无论是童年的纸飞机,还是如今的无人机,放飞的都是人们对天空的热爱。但是无人机放飞并非想飞就飞。这不,第三届进博会期间,上海公安机关便查处了一起多次违规施放无人机、扰乱公共秩序的案件,这也是上海首次出现因违规施放无人机被依法行政拘留的案例。

中国民航网 ·  21h前
AI的偏见:机器就是绝对理性的么?

人工智能已经遍布我们的日常生活。从YouTube的首页推荐到生产药物,它无所不在,它对我们生活的影响超出我们的想象。但人工智能一定公平吗?不,绝对不是。

读芯术 ·  22h前
机器学习的5个成功案例

如今人工智能和机器学习在企业界受到越来越热烈的追捧,企业组织日益利用这些技术更准确地预测客户的偏好,并加强业务运营。

计算机世界 ·  1天前
到2030年,人工智能会发展成什么样?

据麦肯锡全球研究院的研究,截至2030年,人工智能每年将额外创造13万亿美元的价值。其实在今天,人工智能已经在创造收益了,但主要集中在软件领域。然而当到了2030年,在软件行业之外,人工智能也将创造巨大收益,尤其是在零售、旅游、交通、汽车、材料、制造等行业。

读芯术 ·  1天前
Copyright©2005-2020 51CTO.COM 版权所有 未经许可 请勿转载