未来已来,如何减少人工智能带来的风险?

作者: 高博 2019-11-11 16:19:39

 为了在新时代蓬勃发展,企业安全需要减少人工智能带来的风险,并充分利用它提供的机会。

人工智能(AI)正在创造信息安全的新领域。能够独立学习、推理和行动的系统将越来越多地复制人类的行为。就像人类一样,他们也会有缺陷,但也有能力取得伟大的成就。

人工智能带来了新的信息风险,并使一些现有风险更加危险。但是,它也可以永久使用,并且应该成为每个组织防御性武器库中的关键部分。业务和信息安全领导者都必须在接受即将成为日常业务中至关重要的技术之前,先了解风险和机遇。

人工智能已经在许多主流业务用例中找到了自己的方式。组织使用AI的变体来支持客户服务,人力资源和银行欺诈检测等领域的流程。但是,这种炒作可能导致人们对AI的真正含义及其对业务和安全的真正含义感到困惑和怀疑。很难将一厢情愿的想法与现实分开。

人工智能带来的信息风险是什么?

随着组织采用AI系统,它们对于日常业务运营将变得越来越重要。一些组织已经拥有或将拥有完全依赖AI技术的业务模型。无论组织使用了AI的哪些功能,这样的系统和支持AI的信息都会存在固有的漏洞,并且受到意外和对抗性风险的威胁。受损的AI系统将做出错误的决策并产生意外的结果。

同时,组织开始面临复杂的基于AI的攻击,这些攻击有可能以前所未有的速度和规模破坏信息并造成严重的业务影响。采取措施保护内部AI系统并防御外部AI威胁,对于降低信息风险至关重要。

尽管组织采用的AI系统提供了诱人的目标,但对抗性攻击者也开始将AI用于自己的攻击。AI是一种功能强大的工具,可用来增强攻击技术,甚至创建全新的攻击技术。组织必须准备好调整防御措施,以应对基于AI的网络攻击的规模和复杂性。

人工智能提供的防御性机会

安全从业者总是在努力跟上攻击者使用的方法,而AI系统至少可以通过显著增强各种防御机制来提供短期的能力提升。AI可以将大量任务自动化,帮助人手不足的安全部门填补专业技能缺口,提高从业人员的效率。

为了保护自己免受现有威胁,AI可以让防御者领先一步。然而,对手并不是静止不动的——随着支持AI的威胁变得越来越复杂,安全从业者将需要使用AI支持的防御来跟上形势。

在应对威胁方面,AI的好处在于,它可以独立行动,在不需要人类监督的情况下采取相应措施,而且速度比人类快得多。考虑到恶意软件的存在几乎可以在瞬间危害整个系统,这是一个非常有价值的能力。

人工智能可以显著增强防御机制的方式有很多,这为我们提供了乐观的理由,但与任何一种新技术一样,人工智能也不是灵丹妙药。安全从业人员应该意识到部署防御性AI所涉及的实际挑战。

在部署防御性AI系统之前,需要考虑的问题和考虑的范围很窄,而且是为了完成一种任务而设计的。他们需要足够的数据和输入来完成这项任务。一个单一的防御性AI系统将不能增强之前概述的所有防御机制——一个组织可能采用多个系统。在购买和部署防御性AI系统之前,安全领导应该考虑是否需要一个AI系统来解决问题,或者更传统的选择是否会起到类似或更好的作用。

要问的问题包括:

  • 问题有局限吗?(例如,它是否可以用一个数据集或一种输入类型来处理,或者它是否需要高度理解上下文,通常哪些人更擅长提供?)
  • 组织是否有运行和优化AI系统所需的数据?

安全领导者还需要考虑围绕防御AI的治理问题,比如:

  • 防御性AI系统如何适应组织的安全治理架构?
  • 组织如何为防御AI系统提供安全保障?
  • 如何维护、备份、测试和修补防御性AI系统?
  • 组织是否有足够的技术人员来为防御AI系统提供监督?

人工智能不会用技术专长和对风险的直觉来取代对熟练安全从业人员的需求。这些安全从业人员需要在人工监视的需要和允许人工智能支持的控制自动有效地工作的信心之间取得平衡。这种信心需要时间来培养,尤其是在人工智能被证明不可靠、或做出糟糕或意外决定的故事不断涌现的情况下。

人工智能系统会犯错误,人类监督的一个有益方面是,当事情出错时,从业人员可以提供反馈,并将其纳入人工智能的决策过程。当然,人类也会犯错,采用防御性AI的组织需要投入时间、培训和支持来帮助安全从业人员学习如何使用智能系统。

如果有时间一起发展和学习,人类和AI的结合应该成为组织网络防御的一个有价值的组成部分。

现在开始准备

能够独立学习、推理和行动的计算机系统预示着一个充满风险和机遇的新技术时代的到来。已经出现的进展只是冰山一角,未来还将出现更多的进展。AI系统“思考”的速度和规模将随着大数据访问的增加、计算能力的增强和编程技术的不断改进而提高。这种力量这种权力将有可能创造和摧毁一家企业。

可用于防御的AI工具和技术也可用于犯罪分子、黑客活动分子和政府支持的组织等恶意行为者。这些对手很快就会发现使用AI来创建诸如智能恶意软件之类的全新威胁的方法,比如智能恶意软件。使用传统控件的安全从业人员将无法应对攻击的速度、数量和复杂性。

为了在新时代蓬勃发展,组织需要减少AI带来的风险,并充分利用AI提供的机会。这意味着要保护自己的智能系统并部署自己的智能防御。人工智能不再是对遥远未来的憧憬:现在是开始准备的时候了!

人工智能
上一篇:选择正确的人工智能用例的5个技巧 下一篇:一束激光冒充人声,110米外黑掉智能音箱,手机电脑平板也中招
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

面部识别的利与弊:是福还是祸?

虽然现代技术使面部识别更加精确和安全,但与面部识别隐私问题和监控有关的担忧也在增加。因此,让我们在这篇文章中探讨一下这该技术的利与弊。

Naveen Joshi ·  2021-06-01 16:36:22
人工智能和5G如何结合以实现物联网收入最大化

网络系统通过信令和使用软件以及分析来检测和分类设备非常棘手,并且对有限且日益紧张的网络资源提出了巨大的需求。然而,解决这些问题有一个主要解决方案:采用人工智能、自动化和5G技术。

Jordi Castellvi ·  2021-06-01 13:49:15
MIT团队最新研究,仅靠LiDAR和2D地图实现端到端自动驾驶

最近, MIT 计算机科学与人工智能实验室(CSAIL)团队成功展示了一种基于机器学习的自动驾驶系统,该端到端框架仅使用 LiDAR获取的原始 3D 点云数据和类似于手机上的低分辨率 GPS 地图就能进行自主导航,并且大大提升了鲁棒性。

文龙 ·  2021-06-01 12:47:51
自然语言处理(NLP)的历史及其发展方向

自然语言处理的历史是一个充满曲折的故事。它从徒劳的研究开始,经过多年卓有成效的工作,最后结束于一个我们仍在试图找出该领域极限的时代。今天,让我们来一起探索这一AI科学分支的发展。

佚名 ·  2021-06-01 12:46:26
是福还是祸?人脸识别技术的利与弊

面部识别并不是一项全新的技术,但人工智能和机器学习不断使面部识别变得更好。苹果通过引入具有 3D 扫描功能的面部生物识别系统和 iPhone 的 Face ID,提高了面部识别的标准。

Naveen Joshi ·  2021-06-01 11:11:01
人工智能能否使机器具有流体智力?

麻省理工学院和奥地利研究人员为灵活的人工智能创造了“液体”机器学习。

千家网 ·  2021-06-01 10:38:55
大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

一个简单的大脑模型为人工智能研究提供了新的方向。世界顶尖计算机科学理论学家、哥德尔奖和高德纳奖获得者、哥伦比亚大学计算机科学教授 Christos Papadimitriou 关于「大脑中单词表征」的演讲。

Ben Dickson ·  2021-06-01 09:39:24
美城市Baltimore可能颁布最严格的面部识别禁令

据介绍,拟议的法令将禁止私人或商业组织,甚至执法机构在城市使用面部识别技术。

千家网 ·  2021-06-01 09:34:07
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载