微软开源可解释机器学习工具包lnterpretML

作者: 雷锋网 2019-05-13 09:22:21

 

【 图片来源:Microsoft Research Blog  所有者:Microsoft Research Blog 】

人类创造出人工智能,并且被人工智能影响着自己的生活。如果人工智能的行为具有可理解性,那么人类可以更进一步地利用人工智能。近期,微软研究院就机器学习的可理解性发表了相关文章,雷锋网全文编译如下。

当人工智能系统能够影响人类生活时,人们对它的行为理解是非常重要的。通过理解人工智能系统的行为,数据科学家能够适当地调试它们的模型。如果能够解释模型的行为原理,设计师们就能够向最终用户传递这些信息。如果医生、法官或者其它决策制定者相信这个强化智能系统的模型,那他们就可以作出更好的决策。更广泛的讲,随着模型的理解更加全面,最终用户可能会更快接受由人工智能驱动的产品和解决方案,同时,也可能更容易满足监管机构日益增长的需求。

事实上,要实现可理解性是复杂的,它高度依赖许多变量和人为因素,排除了任何“一刀切”的方法。可理解性是一个前沿的、跨学科的研究领域,它建立在机器学习、心理、人机交互以及设计的思想上。

微软研究院这些年一直致力于研究如何创造出具有可理解性的人工智能,如今,如今微软在MIT开源协议下开源了lnterpretML软件工具包,开源地址是 https://github.com/Microsoft/interpret,它将使开发人员能够尝试各种方法去解释模型和系统。InterpretML能够执行许多可理解的模型,包括可解释的Boosting Machine(相对于一般的加性模型做了改进),以及为黑箱模型的行为或者它们的个别预测生成解释的几种方法。

通过一些简单的方式去评估可理解性方法,开发人员就能够比较不同方法产生的解释,从而去选择那些***他们需求的方法。例如,通过检查方法之间的一致性,这样一来,比较法就能够帮助数据科学家去了解在多大程度上相信那些解释。

微软正期待与开源社区合作,继续开发InterpretML,开源地址是https://github.com/Microsoft/interpret

本文转自雷锋网,如需转载请至雷锋网官网申请授权。

微软 开源 机器学习
上一篇:人脑连接互联网,请慎之又慎 下一篇:生成式对抗网络(GANs)的七大未解之谜
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

关于AI在游戏领域的5个预测,你不一定都知道

随着计算机视觉技术的迅猛发展,机器学习在视频游戏行业中得到了广泛地应用,尤其是在虚拟现实领域。

Yu ·  23h前
机器学习技术使显微镜变得比以往更好

机器学习帮助一些最好的显微镜看得更清楚,工作得更快,并处理更多的数据。

cnBeta ·  1天前
Epoch不仅过时,而且有害?Reddit机器学习板块展开讨论

Epoch最大的好处是确保每个样本被定期使用。当使用IID抽样时,你只要能想办法确保所有样本被同样频繁地使用就好了。

梦晨 ·  2天前
人工智能寒冬又到?美国教授arxiv发文批判AI,遭Reddit网友狂喷

人工智能又被批评了?美国教授arxiv发文批评AI有四个误区,却不料遭reddit网友炮轰炒冷饭。

佚名 ·  2天前
人工干预如何提高模型性能?看这文就够了

下面我先从使用机器学习模型来推理系统入手,再展开人工干预的推理循环的技术介绍。

AI科技大本营 ·  2天前
做出电影级的 CG 渲染!斯坦福大学研究人员提出神经光图渲染

近日,一篇题为Neural Lumigraph Rendering的研究论文声称,它对现有的2个数量级图像进行了改进,展示了通过机器学习管道实现实时 CG 渲染的几个步骤。

佚名 ·  3天前
微软开放 AI 系统工具 Counterfit 源代码

人工智能技术正越来越多地应用在医疗,金融和国防等受监管的行业中。但是,组织在采用风险缓解策略方面处于落后状态。一个微软的调查发现,部分企业用户表示,他们没有合适的资源,以确保他们的 AI 系统的稳定性和安全性。

王德清 ·  3天前
2021年进入AI和ML领域之前需要了解的10件事

自从2012年数据科学被评为21世纪最性感的工作以来,来自不同领域的许多人开始转向数据科学或相关的机器学习角色

deephub ·  2021-04-30 23:43:04
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载