希腊、匈牙利、拉脱维亚的安全机构正在开展一个试点计划,利用基于人工智能技术的「虚拟警察」来判断出入境旅客是否「心怀不轨」。但记者测试后却发现,这个「虚拟警察」好像很容易「谎报军情」。

  测试「虚拟警察」的记者来自美国调查新闻网站 The Intercept,他们在今年年初通过塞尔维亚-匈牙利边境时展开了测试。记者诚实地回答了所有问题,但最后却被「虚拟警察」判断为说谎,在 16 道测试题中答错了 4 道,得分为 48 分(满分 100)。评估记者测谎结果的匈牙利警察说,系统建议她接受进一步的检查,尽管这些检查后来并没有进行。

  这个「虚拟警察」被称为 Silent Talker,它是一个测谎仪,用于加强欧洲的边境管理,使旅客在获准通过海关前接受测谎仪测试。

  具体流程如下:

  在抵达机场之前,旅客使用自己的电脑登录一个网站,上传护照照片,然后出现一位身穿蓝色海军制服的棕发虚拟警察。

  这位虚拟警察会提出问题,比如「您姓什么?」、「您的国籍以及旅行目的是什么?」。旅客需要回答此类问题以及虚拟警察提出的其他问题,然后它会使用电脑摄像头扫描面部和眼球运动,以搜寻说谎的迹象。

  如果旅客被判定试图欺骗系统,则将其分类为「高度危险」或「中度危险」,这将取决于该旅客被发现问题回答错误的次数。

  那些被认定危险的旅客可能会被拒绝入关,尽管在大多数情况下,他们无法知道虚拟警察测试在决策中是否起到了作用。此外,虚拟警察的测试结果通常不会透露给旅客。

  虚拟警察的前世今生

  虚拟警察是 iBorderCtrl 项目的产物,该项目的参与者包括匈牙利、拉脱维亚和希腊的安全机构。目前,测谎仪测试是自愿的,实验计划也将于 8 月结束。如果该计划取得成功,欧盟其他国家可能也会展开相应项目。该项目的发展潜力也在欧盟大陆引起了争议,媒体争相报道。

  目前,欧盟的一个研究计划已经向 iBorderCtrl 项目投入了 450 万欧元,并由 13 个合作伙伴组成的财团进行管理,包括希腊安全研究中心、德国汉诺威莱布尼茨大学以及匈牙利 BioSec、西班牙 Everis 和波兰 JAS 等技术与安全公司。

  IBorderCtrl 测谎系统是由英国曼彻斯特城市大学的研究人员开发出来的,他们表示,该技术可以在人们在电脑上回答问题时捕捉到「微姿态」,从而对面部表情、眼球运动和姿势进行分析。此外,他们还认为这种测谎系统代表了边境安全的未来发展方向。

  在 2018 年 6 月发表的一篇论文中,他们就表示这种虚拟警察「非常适合在入境海关对话中检测出旅客是否说谎,因为它能够有效地捕捉到旅客回话中涵盖的信息。」

  然而,一些学者对 IBorderCtrl 测谎系统的价值提出了质疑,认为它依赖伪科学来判定旅客是否诚实。

  质疑声不断的测谎系统

  测谎依据站不住脚

  英国德比大学(University of Derby)刑事侦察学教授 Ray Bull 曾协助英国警方提升面谈技巧,精通测谎技术。他认为,iBorderCtrl 项目是「不可信的」,因为没有证据表明监测人们的面部微姿态是判断他们是否说谎的准确方法。

  Bull 表示:「iBorderCtrl 测谎系统的研发人员在欺骗大家,他们说自己这种技术非常有效,但其实浪费了大量金钱。该技术对人们在诚实和欺骗时的行为产生了根本性误解。」

  技术不够透明

  IBorderCtrl 是一种辅助预筛查流程的技术。但是主张透明度的活动人士表示,在获取更多相关技术信息(如决策所使用的算法)之前不应推广该项目。

  今年早些时候,米兰赫尔墨斯透明度与数字人权中心(Milan-based Hermes Center for Transparency and Digital Human Rights)的研究人员利用信息自由法获取了 IBorderCtrl 测谎系统的内部文件,包含数百页内容。但是,文件内容遭到了大量的修改,并且很多页面完全被涂抹掉了。

  赫尔墨斯中心的研究人员 Riccardo Coluccini 表示:「通过隐瞒处理这些问题的文件来试图抑制对该系统的讨论,这种做法真是太可怕了。了解技术背后的资助流程非常有必要。这些内部文件里到底写了些什么?这些财团又如何证明使用这种伪科学技术的合理性呢?」

  系统存在种族偏见

  曼彻斯特的研究人员也对 iBorderCtrl 系统进行了研究,他们测试了 32 个人,结果显示该系统的准确率仅为 75%。但他们注意到,参与测试的人员在种族和性别上分布不均衡,其中亚裔或阿拉伯裔参与者人数少于欧洲白人,并且女性少于男性。

  欧盟数据保护监管机构负责人 Giovanni Buttarelli 对此表示担忧,认为 iBorderCtrl 系统可能会根据人们的种族出身而歧视他们。

  iBorderCtrl 系统发言人拒绝回答有关种族歧视的问题。该项目的一个网站承认「该测谎系统将影响到旅客的基本权利,但目前测试是自愿的,因此不会出现歧视、人格尊严等问题。 郑州×××医院×××:https://yyk.familydoctor.com.cn/21523/郑州×××医院排名:https://yyk.familydoctor.com.cn/21523/郑州包皮手术多少钱:https://yyk.familydoctor.com.cn/21523/

  学界对情感分析工具可靠性的质疑

  用 AI 进行情感识别是该领域的一大研究热点,但正如上述测谎仪所揭露的一样,这项技术好像并没有那么靠谱。

  近日,来自美国东北大学心理学系、加州理工学院人文社会科学院的研究者对利用 AI 技术进行情感识别的可靠性提出了质疑。他们对愤怒、厌恶、恐惧、快乐、悲伤和惊讶等六种最流行的情绪类别进行了研究,指出现有的情感识别工具用于判断情感类型的依据还太过简单、宽泛,不适合大规模利用。