2019年值得关注的5个人工智能趋势,风口已经形成

作者: 引力空间站 2018-12-11 11:29:27

在2018年期间,我们目睹了基于机器学习和人工智能的平台,工具和应用程序的急剧增长。 这些技术不仅影响了软件和互联网行业,还影响了其他垂直行业,如医疗保健,法律,制造业,汽车和农业。

人工智能趋势

我们将继续看到2019年及以后的ML和AI相关技术的进步。 亚马逊,苹果,Facebook,谷歌,IBM和微软等公司正在投资研发人工智能,这将有助于生态系统将人工智能拉近消费者。

以下是2019年需要注意的5种AI趋势:

1. 启用AI芯片的兴起

与其他软件不同,AI严重依赖专用处理器来补充CPU。 即使是最快和***进的CPU也可能无法提高AI模型的培训速度。 在推理时,该模型需要额外的硬件来执行复杂的数学计算,以加速对象检测和面部识别等任务。

2019年,英特尔,NVIDIA,AMD,ARM和高通等芯片制造商将推出专用芯片,加速AI应用的执行。 这些芯片将针对与计算机视觉,自然语言处理和语音识别相关的特定用例和场景进行优化。 来自医疗保健和汽车行业的下一代应用将依赖这些芯片为最终用户提供智能。

人工智能趋势

2019年也将是亚马逊,微软,谷歌和Facebook等超大规模基础设施公司将增加基于现场可编程门阵列(FPGA)和专用集成电路(ASIC)的定制芯片投资的一年。 这些芯片将针对基于AI和高性能计算(HPC)运行现代工作负载进行大量优化。 其中一些芯片还将协助下一代数据库加速查询处理和预测分析。

2. 边缘的物联网和人工智能的融合

在2019年,AI在边缘计算层遇到物联网。 在公共云中训练的大多数模型将部署在边缘。

工业物联网是人工智能的***用例,可以执行异常检测,根本原因分析和设备的预测性维护。

基于深度神经网络的高级ML模型将进行优化以在边缘运行。 他们将能够处理视频帧,语音合成,时间序列数据和由摄像机,麦克风和其他传感器等设备生成的非结构化数据。

物联网将成为企业中人工智能的***驱动力。 Edge器件将配备基于FPGA和ASIC的特殊AI芯片。

2016年,谷歌推出了Tensor Processing Units,或称TPU,它们更为人所知的一点是 - 专为Google的TensorFlow框架设计的芯片。 今年,这家技术巨头现在推出了Edge TPU,这是一种小型人工智能加速器,可在物联网(IoT)设备中实现机器学习工作。

人工智能趋势

Edge TPU旨在执行机器学习算法训练的任务。 例如,它将能够识别图片中的对象。 算法训练的这部分“预成形任务”被称为“推理”。 虽然Edge TPU旨在执行推理,但Goggle基于服务器的TPU负责训练算法。

人工智能趋势

3. 神经网络之间的互操作性成为关键

开发神经网络模型的关键挑战之一在于选择正确的框架。 数据科学家和开发人员必须从众多选择中选择合适的工具,包括Caffe2,PyTorch,Apache MXNet,Microsoft Cognitive Toolkit和TensorFlow。 一旦模型在特定框架中进行了训练和评估,就很难将训练好的模型移植到另一个框架中。

神经网络工具包之间缺乏互操作性阻碍了AI的采用。 为了应对这一挑战,AWS,Facebook和Microsoft合作构建了开放式神经网络交换(ONNX),这使得在多个框架中重用经过训练的神经网络模型成为可能。

人工智能趋势

在2019年,ONNX将成为该行业的重要技术。 从研究人员到边缘设备制造商,生态系统的所有关键参与者都将依赖ONNX作为推理的标准运行时。

4. 自动化机器学习将获得突出地位

从根本上改变基于ML的解决方案的一个趋势是AutoML。 它将使业务分析师和开发人员能够发展可以解决复杂场景的机器学习模型,而无需经过ML模型的典型培训过程。

在处理AutoML平台时,业务分析师会专注于业务问题,而不是迷失在流程和工作流程中。

AutoML完全适用于认知API和自定义ML平台之间。 它提供了正确的自定义级别,而无需强迫开发人员完成精心设计的工作流程。 与通常被视为黑盒子的认知API不同,AutoML具有相同程度的灵活性,但自定义数据与可移植性相结合。

5. AI将通过AIOps自动化DevOps

现代应用程序和基础架构正在生成为索引,搜索和分析而捕获的日志数据。 从硬件,操作系统,服务器软件和应用软件获得的海量数据集可以进行聚合和关联,以找到见解和模式。 当机器学习模型应用于这些数据集时,IT操作从被动转变为预测。

当AI的强大功能应用于运营时,它将重新定义基础架构的管理方式。 ML和AI在IT运营和DevOps中的应用将为组织提供智能。 它将帮助运营团队进行精确和准确的根本原因分析。

AIOps将在2019年成为主流。公共云供应商和企业将从AI和DevOps的融合中受益。

机器学习和人工智能将成为2019年的关键技术趋势。从业务应用到IT支持,AI将对行业产生重大影响。

人工智能 AI ML
上一篇:人工智能与机器人在哪些领域成了新秀? 下一篇:百度AI为美好校园生活“再添一笔” 让青葱岁月更有科技范
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

面部识别的利与弊:是福还是祸?

虽然现代技术使面部识别更加精确和安全,但与面部识别隐私问题和监控有关的担忧也在增加。因此,让我们在这篇文章中探讨一下这该技术的利与弊。

Naveen Joshi ·  2021-06-01 16:36:22
人工智能和5G如何结合以实现物联网收入最大化

网络系统通过信令和使用软件以及分析来检测和分类设备非常棘手,并且对有限且日益紧张的网络资源提出了巨大的需求。然而,解决这些问题有一个主要解决方案:采用人工智能、自动化和5G技术。

Jordi Castellvi ·  2021-06-01 13:49:15
MIT团队最新研究,仅靠LiDAR和2D地图实现端到端自动驾驶

最近, MIT 计算机科学与人工智能实验室(CSAIL)团队成功展示了一种基于机器学习的自动驾驶系统,该端到端框架仅使用 LiDAR获取的原始 3D 点云数据和类似于手机上的低分辨率 GPS 地图就能进行自主导航,并且大大提升了鲁棒性。

文龙 ·  2021-06-01 12:47:51
自然语言处理(NLP)的历史及其发展方向

自然语言处理的历史是一个充满曲折的故事。它从徒劳的研究开始,经过多年卓有成效的工作,最后结束于一个我们仍在试图找出该领域极限的时代。今天,让我们来一起探索这一AI科学分支的发展。

佚名 ·  2021-06-01 12:46:26
是福还是祸?人脸识别技术的利与弊

面部识别并不是一项全新的技术,但人工智能和机器学习不断使面部识别变得更好。苹果通过引入具有 3D 扫描功能的面部生物识别系统和 iPhone 的 Face ID,提高了面部识别的标准。

Naveen Joshi ·  2021-06-01 11:11:01
人工智能能否使机器具有流体智力?

麻省理工学院和奥地利研究人员为灵活的人工智能创造了“液体”机器学习。

千家网 ·  2021-06-01 10:38:55
大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

一个简单的大脑模型为人工智能研究提供了新的方向。世界顶尖计算机科学理论学家、哥德尔奖和高德纳奖获得者、哥伦比亚大学计算机科学教授 Christos Papadimitriou 关于「大脑中单词表征」的演讲。

Ben Dickson ·  2021-06-01 09:39:24
美城市Baltimore可能颁布最严格的面部识别禁令

据介绍,拟议的法令将禁止私人或商业组织,甚至执法机构在城市使用面部识别技术。

千家网 ·  2021-06-01 09:34:07
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载