HBase在人工智能场景的使用

作者: 明惠 2018-11-22 13:37:49

近几年来,人工智能逐渐火热起来,特别是和大数据一起结合使用。人工智能的主要场景又包括图像能力、语音能力、自然语言处理能力和用户画像能力等等。这些场景我们都需要处理海量的数据,处理完的数据一般都需要存储起来,这些数据的特点主要有如下几点:

大:数据量越大,对我们后面建模越会有好处;

稀疏:每行数据可能拥有不同的属性,比如用户画像数据,每个人拥有属性相差很大,可能用户A拥有这个属性,但是用户B没有这个属性;那么我们希望存储的系统能够处理这种情况,没有的属性在底层不占用空间,这样可以节约大量的空间使用;

列动态变化:每行数据拥有的列数是不一样的。

为了更好的介绍 HBase 在人工智能场景下的使用,下面以某人工智能行业的客户案例进行分析如何利用 HBase 设计出一个快速查找人脸特征的系统。

HBase在人工智能场景的使用

目前该公司的业务场景里面有很多人脸相关的特征数据,总共3400多万张,每张人脸数据大概 3.2k。这些人脸数据又被分成很多组,每个人脸特征属于某个组。目前总共有近62W个人脸组,每个组的人脸张数范围为 1 ~ 1W不等,每个组里面会包含同一个人不同形式的人脸数据。组和人脸的分布如下:

  • 43%左右的组含有1张人脸数据;
  • 47%左右的组含有 2 ~ 9张人脸数据;
  • 其余的组人脸数范围为 10 ~ 10000。

现在的业务需求主要有以下两类:

  • 根据人脸组 id 查找该组下面的所有人脸;
  • 根据人脸组 id +人脸 id 查找某个人脸的具体数据。

MySQL + OSS 方案

之前业务数据量比较小的情况使用的存储主要为 MySQL 以及 OSS(对象存储)。相关表主要有人脸组表group和人脸表face。表的格式如下:

group表:

HBase在人工智能场景的使用

face表:

HBase在人工智能场景的使用

其中 feature 大小为3.2k,是二进制数据 base64 后存入的,这个就是真实的人脸特征数据。

现在人脸组 id 和人脸 id 对应关系存储在 MySQL 中,对应上面的 group 表;人脸 id 和人脸相关的特征数据存储在 OSS 里面,对应上面的 face 表。

因为每个人脸组包含的人类特征数相差很大(1 ~ 1W),所以基于上面的表设计,我们需要将人脸组以及每张人脸特征id存储在每一行,那么属于同一个人脸组的数据在MySQL 里面上实际上存储了很多行。比如某个人脸组id对应的人脸特征数为1W,那么需要在 MySQL 里面存储 1W 行。

我们如果需要根据人脸组 id 查找该组下面的所有人脸,那么需要从 MySQL 中读取很多行的数据,从中获取到人脸组和人脸对应的关系,然后到 OSS 里面根据人脸id获取所有人脸相关的特征数据,如下图的左部分所示。

HBase在人工智能场景的使用

我们从上图的查询路径可以看出,这样的查询导致链路非常长。从上面的设计可看出,如果查询的组包含的人脸张数比较多的情况下,那么我们需要从 MySQL 里面扫描很多行,然后再从 OSS 里面拿到这些人脸的特征数据,整个查询时间在10s左右,远远不能满足现有业务快速发展的需求。

HBase 方案

上面的设计方案有两个问题:

  • 原本属于同一条数据的内容由于数据本身大小的原因无法存储到一行里面,导致后续查下需要访问两个存储系统;
  • 由于MySQL不支持动态列的特性,所以属于同一个人脸组的数据被拆成多行存储。

针对上面两个问题,我们进行了分析,得出这个是 HBase 的典型场景,原因如下:

  • HBase 拥有动态列的特性,支持万亿行,百万列;
  • HBase 支持多版本,所有的修改都会记录在 HBase 中;
  • HBase 2.0 引入了 MOB(Medium-Sized Object) 特性,支持小文件存储。HBase 的 MOB 特性针对文件大小在 1k~10MB 范围的,比如图片,短视频,文档等,具有低延迟,读写强一致,检索能力强,水平易扩展等关键能力。

我们可以使用这三个功能重新设计上面 MySQL + OSS 方案。结合上面应用场景的两大查询需求,我们可以将人脸组 id 作为 HBase 的 Rowkey,系统的设计如上图的右部分显示,在创建表的时候打开 MOB 功能,如下:

  1. create 'face', {NAME => 'c', IS_MOB => true, MOB_THRESHOLD => 2048} 

上面我们创建了名为 face 的表,IS_MOB 属性说明列簇 c 将启用 MOB 特性,MOB_THRESHOLD 是 MOB 文件大小的阈值,单位是字节,这里的设置说明文件大于 2k 的列都当做小文件存储。大家可能注意到上面原始方案中采用了 OSS 对象存储,那我们为什么不直接使用 OSS 存储人脸特征数据呢,如果有这个疑问,可以看看下面表的性能测试:

HBase在人工智能场景的使用

根据上面的对比,使用 HBase MOB特性来存储小于10MB的对象相比直接使用对象存储有一些优势。

我们现在来看看具体的表设计,如下图:

HBase在人工智能场景的使用

上面 HBase 表的列簇名为c,我们使用人脸id作为列名。我们只使用了 HBase 的一张表就替换了之前方面的三张表!虽然我们启用了 MOB,但是具体插入的方法和正常使用一样,代码片段如下:

  1. String CF_DEFAULT = "c"
  2. Put put = new Put(groupId.getBytes()); 
  3. put.addColumn(CF_DEFAULT.getBytes(),faceId1.getBytes(), feature1.getBytes()); 
  4. put.addColumn(CF_DEFAULT.getBytes(),faceId2.getBytes(), feature2.getBytes()); 
  5. …… 
  6. put.addColumn(CF_DEFAULT.getBytes(),faceIdn.getBytes(), featuren.getBytes()); 
  7. table.put(put); 

用户如果需要根据人脸组id获取所有人脸的数据,可以使用下面方法:

  1. Get get = new Get(groupId.getBytes()); 
  2. Result re=table.get(get); 

这样我们可以拿到某个人脸组id对应的所有人脸数据。如果需要根据人脸组id+人脸id查找某个人脸的具体数据,看可以使用下面方法:

  1. Get get = new Get(groupId.getBytes()); 
  2. get.addColumn(CF_DEFAULT.getBytes(), faceId1.getBytes()) 
  3. Result re=table.get(get); 

经过上面的改造,在2台 HBase worker 节点内存为32GB,核数为8,每个节点挂载四块大小为 250GB 的 SSD 磁盘,并写入 100W 行,每行有1W列,读取一行的时间在100ms-500ms左右。在每行有1000个face的情况下,读取一行的时间基本在20-50ms左右,相比之前的10s提升200~500倍。

下面是各个方案的对比性能对比情况。

HBase在人工智能场景的使用

使用 Spark 加速数据分析

我们已经将人脸特征数据存储在阿里云 HBase 之中,这个只是数据应用的***步,如何将隐藏在这些数据背后的价值发挥出来?这就得借助于数据分析,在这个场景就需要采用机器学习的方法进行聚类之类的操作。我们可以借助 Spark 对存储于 HBase 之中的数据进行分析,而且 Spark 本身支持机器学习的。但是如果直接采用开源的 Spark 读取 HBase 中的数据,会对 HBase 本身的读写有影响的。

针对这些问题,阿里云 HBase 团队对 Spark 进行了相关优化,比如直接读取 HFile、算子下沉等;并且提供全托管的 Spark 产品,通过SQL服务ThriftServer、作业服务LivyServer简化Spark的使用等。目前这套 Spark 的技术栈如下图所示。

HBase在人工智能场景的使用

通过 Spark 服务,我们可以和 HBase 进行很好的整合,将实时流和人脸特征挖掘整合起来,整个架构图如下:

HBase在人工智能场景的使用

我们可以收集各种人脸数据源的实时数据,经过 Spark Streaming 进行简单的 ETL 操作;其次,我们通过 Spark MLib 类库对刚刚试试收集到的数据进行人脸特征挖掘,***挖掘出来的结果存储到 HBase 之中。***,用户可以通过访问 HBase 里面已经挖掘好的人脸特征数据进行其他的应用。

HBase 人工智能 数据
上一篇:AR技术会是汽车制造商下一个关注点么? 下一篇:深度策略梯度算法是真正的策略梯度算法吗?
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

人工智能如何帮助痴呆症患者更独立地生活

在越来越多的人患有老年痴呆症,以技术为支撑人类照顾者和改善患者生活质量是当今的一种方式。特别是,我们希望使用技术来帮助痴呆症患者尽可能独立地生活。

美刻吃瓜 ·  21h前
人工智能、5G应用不再停留在“纸上蓝图” 数字经济发展提速

10月20-22日,《财经》新媒体记者在第六届世界互联网大会上了解到,与往年不同的是,经过几年的沉淀,互联网企业不再停留于“纸上蓝图”阶段,人工智能、5G、物联网等新业态的多场景应用正在加速落地。

军事哥谈 ·  22h前
【大咖来了 第4期】数据驱动的产品决策和智能化

前stitch fix/snap数据科学主管王建强分享《数据驱动的产品决策和智能化》,回放链接:http://aix.51cto.com/activity/10012.html?dk=wz

王建强 ·  1天前
【大咖来了 第2期】快狗打车智能化演进之路 精选

快狗打车高级经理胡显波分享的《快狗打车智能化演进之路》,回放链接:http://aix.51cto.com/activity/10010.html?dk=wz

胡显波 ·  1天前
AI破译千年文物铭文能力超人类 正确率比人类高30%

随着科技不断进步,人工智能AI似乎也在各方面不断超越人类。近日,AI又在考古再一次胜过了人类。

佚名 ·  1天前
手把手教你解决90%的NLP问题

利用机器学习方法来理解和利用文本,从最简单的到state-of-the-art,由浅入深,循序渐进。

Emmanuel Ameisen ·  1天前
【大咖·来了 第3期】海量日志分析与智能运维

日志易 CEO 陈军分享的《海量日志分析与智能运维》,回放链接:http://aix.51cto.com/activity/10011.html?dk=wz

summer ·  1天前
如何解决机器学习树集成模型的解释性问题

前些天在同行交流群里,有个话题一直在群里热烈地讨论,那就是 如何解释机器学习模型 ,因为在风控领域,一个模型如果不能得到很好的解释一般都不会被通过的,在银行里会特别的常见,所以大多数同行都是会用 LR 来建模。

SAMshare ·  1天前
Copyright©2005-2019 51CTO.COM 版权所有 未经许可 请勿转载